2025年、日本のAIスタートアップ「サカナAI」がシリーズBで約200億円を調達し、企業価値4,000億円という国内スタートアップ最高水準に達した。創業者はGoogle Brain出身のデビッド・ハ、Llion Jones ら世界的研究者たちであり、その技術戦略は「巨大モデル競争」ではなく、複数の小型モデルを協調させる“群れ”型AIという独自路線にある。日本語に最適化したLLM、進化的モデルマージ、AIサイエンティストによる研究自動化など、学術と産業応用を一体化した技術が注目されている。本記事では、サカナAIの成立背景、技術基盤、ソブリンAI戦略、投資家の狙い、採用人材像まで最新情報を総整理する。
===============================
🟥 1:サカナAIとは何か──世界的研究者が集結した日本発AI企業の正体(400字)
===============================
サカナAIは、2023年に設立された日本発のAIスタートアップで、Googleから独立した著名研究者デビッド・ハ(元Google Brain)、Llion Jones(Attention is All You Need の著者)、伊藤錬らが創業メンバーとして参加した。今回の200億円調達で未上場企業として国内最大級の評価額を獲得し、その背景には「巨大LLM競争ではなく、小型モデルの連携によって持続可能なAIを実現する」という独自の技術哲学がある。創業わずか2年で金融、防衛、製造、公共分野と幅広い実装を進めており、日本語に特化したLLM開発や論文自動生成AIなど、研究と社会実装を高速に循環させる組織構造が特徴だ。
1:創業者と組織の特徴
デビッド・ハ:進化的アルゴリズム・生物模倣AIの世界的権威
Llion Jones:Transformer発明者
伊藤錬:日本語AIの専門家
→ 日本のスタートアップでは異例の“世界レベル研究者チーム”。
2:企業価値と調達状況
累計調達額:約520億円
今回の投資家:MUFG、NEA、Khosla Ventures、In-Q-Tel(米政府系ベンチャー)など
評価額:約4,000億円(国内最高レベル)
→ 海外のトップVCも参入しているのが大きな特徴。
3:社名「Sakana」の語源
魚の群れ=群知能
小型モデルを多数協調させるアーキテクチャを象徴
創業者が「スイミー」を例示している
→ 技術思想とブランドが完全に一致している。
===============================
🟥 2:サカナAIの技術基盤──小型モデル連携と進化的モデルマージの衝撃(400字)
===============================
サカナAIの最大の特徴は、巨大GPUクラスターで巨大LLMを訓練する米中路線とは異なる「小型モデルの群れで性能を引き出す」戦略だ。その中心にあるのが、既存モデルを進化的アルゴリズムで融合させる 進化的モデルマージ(Evolutionary Model Merge) であり、複数モデルの良い部分だけを選択して新しい高性能モデルを生成する。また、AI同士を協調させる「AIコンステレーション」、研究自動化システム「AI Scientist」など、AIを“作るAI”の方向に踏み出している。これらは計算コスト削減・開発速度向上・日本語最適化を同時に実現するもので、限られた計算資源で高性能を求める日本企業との相性が高い。
1:進化的モデルマージとは何か
既存の複数モデルを自動比較し、良い部分を組み合わせて新モデルを生成
大規模学習を一から行う必要がない
EvoLLM-JP、TinySwallow などに採用
→ 計算資源を節約しつつ高性能モデルを作る新手法。
2:AIコンステレーション(群れAI)
複数のAIを役割分担させて協調
魚の群れのように「総体として賢くなる」設計
小型モデル群でも大規模モデルに匹敵する性能へ
3:AI Scientist の可能性と限界
可能性:
研究アイデア生成
実験設計
論文自動生成(査読通過例あり/1本15ドルで作成と公表)
課題:
誤推論・ハルシネーション
著作権・査読の透明性
研究倫理
→ 研究自動化の“最前線”だが、社会的議論が必要。
===============================
🟥 3:サカナAIの事業領域──日本語LLM・金融・防衛まで広がる実装(400字)
===============================
サカナAIは研究志向の企業に見えるが、実際には産業応用で急速に成果を出している。特に日本語特化LLMは高評価で、金融(MUFG・大和証券)、防衛(総務省の偽情報対策プロジェクト)、製造・自治体への導入など、幅広い領域で採用が進む。また、文化的要素を含む画像生成モデル「EvoSDXL-JP」など、日本の文化資産をデジタル化する方向にも踏み出している。米中のAI企業が政治的要因で日本語に最適化しない中、サカナAIは「日本語・日本文化・日本の規範」に適合したソブリンAIとしての立ち位置を強めており、国内企業の強い支持につながっている。
1:日本語特化LLMの強み
EvoLLM-JP
TinySwallow-1.5B
日本語の語彙・文法・敬語に強い
事後学習で文化的文脈に最適化
2:金融・防衛分野での採用
MUFG:金融文書処理、投資分析
大和証券:アナリスト支援
総務省:偽情報対策AI
→ 公的分野で使われる数少ない日本企業製AI。
3:文化×AIの取り組み
浮世絵データを使った画像生成
日本文化を前提とした事後学習
海外モデルにはない文化的感性を実現
===============================
🟥 4:サカナAIが求める人材──OSS貢献と国際的実力が鍵(400字)
===============================
サカナAIは少数精鋭の研究開発組織であり、採用は「学歴」よりも「実力」を重視する。特にOSSへの貢献、国際論文、GPU分散システムの経験など、世界基準の技術力が評価される。年齢制限はなく、55歳でもスキルと成果があれば十分に応募可能だ。OSS貢献は、Hugging Faceでのモデル公開、TransformersやDiffusersへのPull Request、データセット公開などが最も評価されやすい。同社は「持続可能なAI」を掲げるため、巨大GPUを使った“腕力勝負”ではなく、アルゴリズム、最適化、軽量化といった深い技術力を求める傾向がある。
1:求められるスキルセット
Python / C++
PyTorch
分散学習・GPU最適化
LLM の構造理解
研究成果を実装できる能力
2:OSS貢献とは何か(誤解しがちな点の整理)
よくある誤解:
Hugging Face のモデル投稿だけが OSS 貢献 → 誤り
実際の評価される例:
Transformers へのバグ修正・改善PR
日本語データセットの公開
モデルの最適化コード
README・ドキュメント改善
→ コードを書けなくてもドキュメント改善も立派な貢献。
3:55歳から目指す場合の戦略
小型モデルの最適化に特化
Hugging Face で日本語モデルを扱い、LoRA で微調整
実験結果を公開 → ポートフォリオ化
PR を増やし国際実績を積む
→ 年齢よりも「アウトプットの質」がすべて。
===============================
🟥 まとめ
サカナAIは群知能型AIという独自路線
巨大モデル競争に参加せず、小型モデル連携で性能向上
日本語・金融・防衛など“国内の強い需要”に刺さる戦略
世界的研究者チームで技術力が圧倒的
OSS貢献が採用の最重視ポイント
〆最後に〆
以上、間違い・ご意見は
以下アドレスまでお願いします。
全て返信できていませんが 見ています。
適時、改定をします。nowkouji226@gmail.com
