Yuta Kashino
yutakashino.bsky.social
Yuta Kashino
@yutakashino.bsky.social
BakFoo, Inc. / Engineer / Entrepreneur / Tokyo / Running / Cycling / Swimming / Mathematical Science / https://twitter.com/yutakashino
なんというか,10年経ってみるとGoogleの正しさがやっと大衆にも伝わる的なことが多すぎるよな….その意味で技術的側面はまだまだキレッキレ….ただ,儲ける手法はユーザーのプライバシーを養分にした監視資本主義の権化(広告が主力なんで当然だが…)で邪悪すぎるけど.
December 2, 2025 at 4:54 AM
ちなみに,この論文はICLRでは蹴られて openreview.net/forum?id=f0G... TMLRで採用 openreview.net/forum?id=p7j... されてるようですね.
Hardware Scaling Trends and Diminishing Returns in Large-Scale...
Dramatic increases in the capabilities of neural network models in recent years are driven by scaling model size, training data, and corresponding computational resources. To develop the...
openreview.net
December 2, 2025 at 2:56 AM
また,vLLMはRayとNCCLを上手に利用している.Tensor Parallel Actorのリソース配備とメッセージパッシングによるコントロールにRayを使い,実際のテンソルデータはNCCL経由(今回は高速なQSFP通信)で同期している.つまり,コントロールプレーンとデータプレーンの分離をしてると.よく考えてる.
December 2, 2025 at 2:55 AM
まさに,vLLMはアクターモデルの設計になってるわけで,今あるリソースにアクターを配備し,そのアクターにメッセージパッシングで実行させればいいと.なるほどすぎる.
December 2, 2025 at 2:55 AM
要するにvLLMは常にRay Actorを使って並列化をするから,そのbackendがrayであるかlocalであるかはどちらでもいいわけ.bakckendにrayクラスタが見つかればそれを使うし,見つからなければlocalでやるし,そしてクラスタ/localの上にあるGPUリソースを調べて,それを端から使っていくと.なるほどね.
December 2, 2025 at 2:55 AM
AIや暗号資産の大統領令をサックスが直接指南しているのに,NYTが調べただけでも,彼自身が運営するVCが直接投資する企業,AIで499社,暗号資産で20社,防衛で数社が規制緩和と政府契約と免税と助成金の直接的な巨額の利益を受け,彼が濡れ手で粟で受け取る額はとんでもないものになると.
December 1, 2025 at 1:32 AM
結局イノベーションは,孤高の天才やスカンクワークスが単独で成し遂げるものでなくて,アイディアの掛け合わせなんですよね.そしてまたイノベーションはしばしば同時多発的におきるものだから,そのパイオニアがやらなくてもその他の人たちが早晩成し遂げるものだと.
November 30, 2025 at 6:10 AM
真っ当な海外の報道機関,WSJ, NYT, FT, Bloomberg, Ecoonomist等,は高市内閣への評価が高くない.彼らは初の女性宰相というプレミアムなんて興味ないし,むしろ初手から外交をヘマしたり経済音痴だったりする能力不足をリズ・トラスに重ねている.日本で騒がれるサッチャーとの比較なんてほぼ無い.
November 28, 2025 at 1:25 PM