大規模言語モデル– tag –
-
Product Research
TurboQuant – GoogleのLLM圧縮技術で推論速度とコストを大幅削減
GoogleのTurboQuantは、理論に基づく先進的な量子化アルゴリズムで大規模言語モデルとベクトル検索エンジンを大幅圧縮。AIインフラのコスト削減と推論速度向上を実現する技術を詳しく解説します。 -
Product Research
Unsloth Studio – ノーコードで実現するローカルLLM訓練・推論プラットフォーム
Unsloth Studioは、複雑なコーディングなしでLLMの訓練・実行・エクスポートが可能なオープンソースのノーコードWebUI。非構造化ファイルを自動的にデータセットに変換し、従来比2倍の速度と70%削減されたVRAMで効率的なモデル開発を実現します。 -
Product Research
Olmo Hybrid – TransformerとRNNを融合した7Bパラメータのオープンソース言語モデル
Olmo Hybridは、TransformerとLinear RNNを3:1の比率で組み合わせた7Bパラメータの完全オープンソース言語モデル。Gated DeltaNetアーキテクチャにより、従来のOlmo 3と同等のMMLU精度を維持しながら、49%のトークン削減を実現した革新的なAIモデルです。 -
Product Research
GPT-5.4 – トークン消費33%削減で事実エラー減少を実現したOpenAI最新AIモデル
OpenAIの最新モデルGPT-5.4は、33%の事実エラー削減とトークン消費の効率化を実現。応答途中での中断・リダイレクト機能により、AIとの対話制御性が飛躍的に向上しました。長文タスクでの文脈保持力とウェブリサーチ性能の強化で、ビジネス活用の可能性が広がります。 -
Product Research
Step 3.5 Flash – 高効率なOpenClawエージェント対応196B MoEオープンソースAIモデル
Step 3.5 Flashは、196BパラメータのMoEアーキテクチャで1トークンあたり11Bのみ活性化する超効率型AIモデル。OpenClawとのネイティブ統合により、実用的なAIエージェント開発に最適なオープンソースモデルです。 -
Product Research
Gemini 3.1 Flash-Lite – 大量ワークロード向け超高速AI APIモデル
Gemini 3.1 Flash-Liteは、Gemini 3シリーズで最速かつ最もコスト効率の高いAIモデル。入力$0.25、出力$1.50/100万トークンという破格の料金で、2.5 Flashより2.5倍高速な初回トークン生成と45%高速な出力速度を実現しています。 -
Product Research
Gemini 3.1 Pro – 高度な推論能力を備えた複雑タスク対応AIモデル
Gemini 3.1 Proは、単純な回答では不十分な複雑タスクに対応するGoogleの最新AIモデル。コア推論能力を大幅に強化し、ソフトウェア開発やデータ分析などの高度な問題解決を支援します。 -
Product Research
Qwen3.5 – 397Bパラメータの性能を17Bで実現するマルチモーダルAIエージェント
Qwen3.5は397Bパラメータの能力を持ちながら17Bモデルの推論速度を実現するオープンウェイトのマルチモーダルAIエージェント。ハイブリッドアーキテクチャとMoE技術で長期的なエージェントタスクに最適化された次世代AIモデルです。 -
Product Research
GLM-5 – オープンソース最高峰の744B MoE大規模言語モデル
GLM-5は744B MoEアーキテクチャを採用したオープンソースの大規模言語モデル。Vending Bench 2でオープンソース1位を獲得し、複雑なシステム開発とエージェントタスクに最適化。DeepSeek Sparse Attentionとslime RL技術により、Claude Opus 4.5に匹敵する性能を実現しています。 -
Product Research
MiMo-V2-Flash – Xiaomi開発の超高速309B MoEモデル:コーディングとAIエージェント特化型言語モデル
Xiaomi開発のMiMo-V2-Flashは、309Bパラメータを持つMoE(Mixture of Experts)モデルで、15Bのアクティブパラメータにより超高速処理を実現。コーディング、推論、AIエージェント開発に特化した高性能オープンソース言語モデルです。
12