トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
狂ってる
この新しい論文は基本的にこう言っています
セルはLLMのように「プロンプト」されるようになりました。
STACKは、1億4,900万個のヒト単細胞で訓練された生物学の基礎モデルです。
各セルを孤立して扱うのではなく、文の中でトークンが意味を持つように文脈の中でセルを理解します。推論の段階では、細胞はモデルに新しい細胞について考える方法を教えます。
なぜこれが大きな問題なのか
ほとんどの単一セルモデル=「ここにセルがある、何だと思うか」
STACK = 「ここにセルの近傍がある。今度はそれらを摂動させたら何が起こるか予測する。」
それは以下の通りです:
新しい生物学的条件を即座に学べる
化学的摂動の影響を予測する
ドナー、組織、疾患にまたがる一般化
ゼロショットで、箱から出したままです
これは文脈学習ですが、人間の生物学に関するものです。 👀
驚くべきことに、彼らはそれを使ってパーターブ・サピエンスを作り出しました:
攪乱細胞の初のヒト全アトラス
28組織...

トップ
ランキング
お気に入り
