#量子化モデル
今日のHuggingFaceトレンド

moonshotai/Kimi-K2-Thinking
本リポジトリは、最新のオープンソース思考モデル「Kimi K2 Thinking」を提供することを目的としています。
このモデルは、ステップバイステップの推論と動的なツール呼び出し機能を持ち、HLEなどのベンチマークで高い性能を発揮します。
また、INT4量子化と256Kコンテキストウィンドウを備えた大規模なMixture-of-Expertsアーキテクチャの詳細と評価結果を公開しています。
moonshotai/Kimi-K2-Thinking · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
huggingface.co
November 11, 2025 at 10:20 AM
今日のHuggingFaceトレンド

moonshotai/Kimi-K2-Thinking
このリポジトリは、最新のオープンソース思考モデル「Kimi K2 Thinking」を公開し、その詳細を提供するものです。
K2 Thinkingは、MoEアーキテクチャに基づき、ステップバイステップの推論と動的ツール呼び出しに特化しています。
256Kの長大なコンテキストとINT4量子化により、高い性能と効率性を両立させ、主要な推論ベンチマークで最先端の結果を示しています。
moonshotai/Kimi-K2-Thinking · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
huggingface.co
November 9, 2025 at 10:15 AM
高精度汎用量子コンピュータHeliosが商用化、GenAI革新へ#GenAI#Helios#Quantinuum

Quantinuumが次世代の量子コンピュータHeliosを商用化し、企業向けの革新を促進。GenAIモデルの強化や新プログラミング言語Guppyも紹介。
高精度汎用量子コンピュータHeliosが商用化、GenAI革新へ
Quantinuumが次世代の量子コンピュータHeliosを商用化し、企業向けの革新を促進。GenAIモデルの強化や新プログラミング言語Guppyも紹介。
news.3rd-in.co.jp
November 5, 2025 at 11:23 PM
FLUX みたいな静止画を生成するやつは量子化モデルが出てきてちょっとずつ広がり始めたけど動画はまだ厳しい
November 4, 2025 at 6:19 PM
一応量子化されたモデルデータとかもありはするのだが
November 4, 2025 at 6:16 PM
この動きは、経済産業省が掲げる「特定重要物資クラウドプログラム」および経済安全保障推進法(特定社会基盤)の文脈と整合しています。

・データ主権の確保:国外クラウド依存からの脱却
・生成AIの国産モデル化:国内データセットを用いた学習基盤の確立
・官民連携の促進:医療・防災・製造分野での公的利用を想定

特に、堺データセンターはKDDIの海底ケーブル拠点とも接続され、通信からAI演算までの一気通貫構造を持つことが特徴です。これは能動的サイバー防御(Active Cyber Defense)や量子暗号通信網との将来的連携も見据えた構造です。
KDDI、GPUクラウドサービス「KDDI GPU Cloud」を2026年4月開始 (クラウド Watch)
KDDI株式会社は28日、「大阪堺データセンター」上でNVIDIA GB200 NVL72を提供する...
newspicks.com
October 29, 2025 at 12:53 AM
💡 Summary by GPT:

このガイドは、Google ColabのL4 GPU(22GB VRAM)を用いて、OpenAIのGPT-OSS 20Bモデルを効率的にファインチューニングする方法を解説しています。UnslothライブラリとLoRAを活用し、4ビット量子化やパラメータ効率的な手法により、大規模モデルの訓練をリソース制約下でも実現可能です。インストール手順、モデルの読み込み、LoRAアダプターの追加、推論レベルの調整、データ準備、訓練設定、メモリ管理、推論実行までの具体的な手順を詳細に解説しています。特に、 (1/2)
October 26, 2025 at 8:04 PM
量子の世紀展、「量子論というのははちゃめちゃに直観に反している(ように見える)のでとても納得しづらいです」「なので誤解を招かない程度にモデル化したものを是非触れて理解を深めてください」という姿勢の構成をしていて、なんかものすごく気を使った展示に思えました 曲がりなりにも量子論の講義取ってた奴こんな中途半端なこと言ってていい立場じゃないんだけどね
October 26, 2025 at 12:03 PM
💡 Summary:

ヴァーツラフ・ヴォルヘインは、ニューラルオーディオコーデックと言語モデルの統合について研究しており、オートエンコーダーとベクトル量子化を用いて音声を離散的なトークンに変換し、直接的な音声予測を可能にしています。彼は、現在の音声言語モデル(LLM)が文字起こしやテキスト読み上げ(TTS)に依存している点を批評し、これらが真の音声理解や感情のニュアンスを制限していると指摘します。音声モデルの改善のために、残差ベクトル量子化や多層エンコーディング、そしてLibri-Lightのような大規模データセットでの学習について議論し、 (1/2)
October 21, 2025 at 9:43 PM
2510.11696
我々は、大規模言語モデル(LLM)のための量子化強化学習フレームワークであるQeRLを提案する。RLはLLMの推論能力に不可欠である一方、リソース集約的であり、大量のGPUメモリと長いロールアウト時間を必要とする。QeRLは、NVFP4量子化とLoRA(Low-Rank Adaptation)を組み合わせることでこれらの問題に対処...
October 16, 2025 at 12:06 AM
AIモデルのメモリ使用量を60~70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表 - GIGAZINE
gigazine.net/news/2025100...
AIモデルのメモリ使用量を60~70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表
中国の大手テクノロジー企業であるHuaweiが、大規模言語モデル(LLM)をコンシューマーグレードのハードウェアで品質を損なうことなく実行できるようにするための量子化手法「Sinkhorn-Normalized Quantization(SINQ)」を発表しました。
gigazine.net
October 7, 2025 at 7:39 AM
https://gigazine.net/news/20251006-sinq-sinkhorn-normalized-quantization-huawei/
Huaweiが新しい量子化手法「SINQ」を発表しました。
AIモデルのメモリ使用量を大幅に削減できます。
低性能なハードウェアでの動作も可能にします。
AIモデルのメモリ使用量を60~70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表
中国の大手テクノロジー企業であるHuaweiが、大規模言語モデル(LLM)をコンシューマーグレードのハードウェアで品質を損なうことなく実行できるようにするための量子化手法「Sinkhorn-Normalized Quantization(SINQ)」を発表しました。
gigazine.net
October 7, 2025 at 1:29 AM
https://trecome.info/articles/749bbf65-279c-4fc0-bc74-99f9e41ab534
【新着記事】
AIモデルのメモリ使用量を60~70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表
October 7, 2025 at 12:06 AM
AIモデルのメモリ使用量を60~70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表

パソコン上で簡単にAIを動かすためによく使われるllama.cppがSINQに対応したらかなり広まりそう。

gigazine.net/news/2025100...
AIモデルのメモリ使用量を60~70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表
中国の大手テクノロジー企業であるHuaweiが、大規模言語モデル(LLM)をコンシューマーグレードのハードウェアで品質を損なうことなく実行できるようにするための量子化手法「Sinkhorn-Normalized Quantization(SINQ)」を発表しました。
gigazine.net
October 6, 2025 at 10:15 PM
ニュースだよ~

>AIモデルのメモリ使用量を60~70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表
- https://gigazine.net/news/20251006-sinq-sinkhorn-normalized-quantization-huawei/
October 6, 2025 at 9:38 PM
中国についてバルトさんに話したら、興味がないようでした…… AIモデルのメモリ使用量を60~70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表 https:// gigazine.net/news/20251006-sin q-sinkhorn-normalized-quantization-huawei/ # Apple # LLM # news # bot

Interest | Match | Feed
Origin
mastodon.crazynewworld.net
October 6, 2025 at 6:56 PM
AIモデルのメモリ使用量を60~70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表
https://gigazine.net/news/20251006-sinq-sinkhorn-normalized-quantization-huawei/
AIモデルのメモリ使用量を60~70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表
中国の大手テクノロジー企業であるHuaweiが、大規模言語モデル(LLM)をコンシューマーグレードのハードウェアで品質を損なうことなく実行できるようにするための量子化手法「Sinkhorn-Normalized Quantization(SINQ)」を発表しました。
gigazine.net
October 6, 2025 at 6:39 PM
GIGAZINE より

AIモデルのメモリ使用量を60~70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表
Huawei Announces Open Source Quantization Method "SINQ" to Reduce Memory Usage of AI Models by 60-70 % and Enable Low-Performance and Low-cost Hardware to Work
AIモデルのメモリ使用量を60~70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表 - GIGAZINE Huawei Announces Open Source Quantization Method "SINQ" to Reduce Memory Usage of AI Models by 60-70 % and Enable It to Work on Low-Performance and Low-cost Hardware - GIGAZINE
中国の大手テクノロジー企業であるHuaweiが、大規模言語モデル(LLM)をコンシューマーグレードのハードウェアで品質を損なうことなく実行できるようにするための量子化手法「Sinkhorn-Normalized Quantization(SINQ)」を発表しました。
gigazine.net
October 6, 2025 at 5:16 PM
GIGAZINE AIモデルのメモリ使用量を60~70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表 中国の大手テクノロジー企業であるHuaweiが、大規模言語モデル(LLM)をコンシューマーグレードのハードウェアで品質を損なうことなく実行できるようにするための量子化手法「Sinkhorn-Normalized Quantization(SINQ)」を発表...

Interest | Match | Feed
Origin
gigazine.net
October 6, 2025 at 1:22 PM
AIモデルのメモリ使用量を60〜70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表
#SINQ #ITニュース
ITちゃんねる
AIモデルのメモリ使用量を60〜70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表 #SINQ #ITニュース
it.f-frontier.com
October 6, 2025 at 12:29 PM
Huaweiが開発した量子化手法「SINQ」は、メモリ使用量を60~70%削減できるとされています。これにより、大規模言語モデルを安価で性能の低いコンシューマー機器でも、品質を落とさずに動かせるようになると報じられました。夜風が通り過ぎるような静かな中で、発表が行われました。 gigazine.net #news
AIモデルのメモリ使用量を60~70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表 - GIGAZINE
中国の大手テクノロジー企業であるHuaweiが、大規模言語モデル(LLM)をコンシューマーグレードのハードウェアで品質を損なうことなく実行できるようにするための量子化手法「Sinkhorn-Normalized Quantization(SINQ)」を発表しました。
gigazine.net
October 6, 2025 at 12:14 PM
AIモデルのメモリ使用量を60~70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表
https://gigazine.net/news/20251006-sinq-sinkhorn-normalized-quantization-huawei/
AIモデルのメモリ使用量を60~70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表
中国の大手テクノロジー企業であるHuaweiが、大規模言語モデル(LLM)をコンシューマーグレードのハードウェアで品質を損なうことなく実行できるようにするための量子化手法「Sinkhorn-Normalized Quantization(SINQ)」を発表しました。
gigazine.net
October 6, 2025 at 12:01 PM
ローカル環境でQwen3-VL-30B-A3Bを動かす

はじめに Qwen3-VL-30B-A3Bが公開されたので早速ローカル環境で使ってみる。 なお、本記事ではユニファイドメモリが96GB以上のMacを対象とする。おそらくそれ以下だと、VRAMが足りずにモデルの読み込みに失敗する。 ! NVIDIA GPUなら、24GB以上のVRAMがあれば4bit量子化により推論が可能かも知れない。 ただし私はそのようなGPUを所有しておらず確認できないため、本記事ではNVIDIA GPUは対象外とする。 ※まあNVIDIA GPUの場合は公式ドキュメントに従えば、おそらく問題なく動くだろう。…
ローカル環境でQwen3-VL-30B-A3Bを動かす
はじめに Qwen3-VL-30B-A3Bが公開されたので早速ローカル環境で使ってみる。 なお、本記事ではユニファイドメモリが96GB以上のMacを対象とする。おそらくそれ以下だと、VRAMが足りずにモデルの読み込みに失敗する。 ! NVIDIA GPUなら、24GB以上のVRAMがあれば4bit量子化により推論が可能かも知れない。 ただし私はそのようなGPUを所有しておらず確認できないため、本記事ではNVIDIA GPUは対象外とする。 ※まあNVIDIA GPUの場合は公式ドキュメントに従えば、おそらく問題なく動くだろう。 Source link
inmobilexion.com
October 5, 2025 at 11:34 PM
膜宇宙理論!

一時期、大流行りしましたねぇ
ビジネス書でもプレーンワールド仮説を取り上げるものまで出てきたり(苦笑)

さすがに最近では量子視点から多数の考察やモデル化、遂にはミニモデルによる実証実験まで出てきたので、以前のようなSF色は薄まり、地に足のついた学術領域になりました

よかった、よかった

最近は、同じ「ブレーン」でも意味の異なる「M5ブレーン(5次元)」や「カラビ・ヤウ多様体(6次元)」についての研究がホットですね
まぁどの論文も出だしから難しいこと・・・毎回アタマを抱えて唸っています(苦笑)
September 29, 2025 at 8:28 AM
「大規模言語モデルに関して「量子化」という技術があります。

1.どのような技術なのか
2.どのようなメリットがあるのか
3.どのようなデメリットがあるのか

これらの項目について高校生にもわかるように易しく説明してください。」

という質問をPocketPalに入れた小さなAIたちに聞いてみたらそれなりの説明からきちんと高校生向けを考えた説明まで返してくれました。

使い方、質問の仕方が大事ですね。
September 24, 2025 at 6:50 PM