こんにちは!AIフル装備 powered by みらいラボのモモです。Googleが2026年4月2日、新しいオープンAIモデル「Gemma 4」を公開しました。今回の発表で特に注目されているのが、ライセンスの大きな変更です。これまでの独自ライセンスから「Apache 2.0」へと切り替わり、個人から企業まで商用利用を含む幅広い用途で自由に使えるようになりました。スマートフォンで動く小型版から業務向けの高性能版まで全部で4サイズが用意されており、どんな環境にも対応できる設計になっています。
Gemma 4とは——Googleのオープンモデルシリーズの最新作
GoogleのAI研究部門「Google DeepMind」が開発したGemma 4は、同社の最上位モデル「Gemini 3」と同じ研究・技術をベースにしたオープンモデルです。「オープンモデル」とは、モデルそのものが一般公開されており、誰でも自由にダウンロードして自分の環境で動かせるものを指します。Googleが商業展開するGeminiとは異なり、Gemmaはモデルの中身(学習済みパラメータ)ごと公開されているのが大きな特徴です。
Gemmaシリーズはこれまでも複数のバージョンが公開されてきましたが、Gemma 4は機能・性能・ライセンスのすべての面で大幅に進化しています。特にライセンスの変更と、サポートする能力の広がりは、これまでのバージョンとは一線を画す内容です。
4サイズ展開——目的や環境に合わせて選べる
Gemma 4には、用途に合わせて選べる4つのバリエーションが用意されています。大きく「エッジ向け」と「高性能向け」の2種類に分けられ、動かす環境やこなしたいタスクに応じて使い分けることができます。
スマホでも動くエッジ向けモデル(E2B・E4B)
「E2B」と「E4B」は、それぞれ20億・40億パラメータの小型モデルです。「パラメータ」とはAIの学習量を表す単位で、数が大きいほど高性能になる傾向がありますが、その分動かすのに必要なコンピューターの性能も上がります。
E2BとE4Bは、スマートフォンやRaspberry Pi、NVIDIA Jetson Orin Nanoといった小型コンピューターでも動作するよう設計されています。インターネットに接続せず、デバイス単体で動かせる「完全オフライン動作」が可能で、プライバシーを重視した使い方にも向いています。コンテキストウィンドウ(一度に処理できる文章量)は12万8000トークンと、エッジモデルとしては非常に大きく、長めの文書も処理できます。
テキストだけでなく、画像・動画・音声の処理にも対応しており、これだけ多彩な機能が小型デバイスで動くのは大きな進歩です。QualcommやMediaTekのチップセットと組み合わせることで、スマートフォン上でほぼ遅延なしの動作を実現することを目指しています。
業務用途にも使える高性能モデル(26B MoE・31B Dense)
「26B MoE」は260億パラメータのモデルで、MoE(Mixture of Experts=専門家の混合)という技術を採用しています。MoEとは、大量のパラメータを持ちながらも、処理するたびに全体のうち必要な部分だけを使うという仕組みです。実際に動くときに使われるのは38億パラメータほどにとどまるため、大型モデルとしては動作が速いという特徴があります。「Arena AI」というAI評価ランキングでオープンモデル中第6位にランクインしています。
「31B Dense」は310億パラメータのモデルで、全パラメータを常に使う構成です。同ランキングでオープンモデル中第3位を獲得しており、自分より20倍以上大きなモデルと同等の性能を示すベンチマーク結果も報告されています。NVIDIAのH100 GPU(メモリ80GB)1枚に収まるサイズ感で、業務環境での導入を意識した設計です。
大型モデルのコンテキストウィンドウは最大25万6000トークンで、長い文書やコードリポジトリ全体を一度に読み込んで処理するといった使い方に対応しています。
ライセンスが「Apache 2.0」に変わったことの意味
今回のGemma 4でとりわけ大きなニュースといえるのが、ライセンスの変更です。これまでのGemmaシリーズにはGoogleの独自カスタムライセンスが適用されており、商用利用にはいくつかの制限が伴っていました。それが今回から「Apache 2.0ライセンス」へと全面的に切り替わりました。
Apache 2.0は、オープンソースソフトウェアの世界で広く使われているライセンスのひとつです。このライセンスのもとでは、モデルを使うだけでなく、改変・再配布・商業化も自由に行えます。つまり、Gemma 4を使ったサービスやアプリを作って販売することも、特別な許可や追加費用なしに実施できます。
- 商用利用が完全に自由(販売・サービス化もOK)
- 改変・再配布も可能
- 自社製品や社内ツールへの組み込みも制限なし
- ライセンスの懸念なしで使える選択肢が増える
これは個人開発者だけでなく、スタートアップや中小企業にとっても大きな変化です。これまで「Googleのモデルは制限があるから別のモデルを使おう」と判断していた場面でも、Gemma 4なら安心して候補に入れられるようになります。
Gemma 4でできること——マルチモーダルと多言語への対応
Gemma 4の機能面での大きな特徴は、テキストだけでなく複数のメディアを扱えるマルチモーダル対応です。すべてのサイズが画像と動画の処理に対応しており、エッジモデルはさらに音声入力にも対応しています。たとえば写真を渡して内容を説明させたり、動画の一場面について質問したりすることが可能です。
対応言語は140以上で、日本語を含む多くの言語でネイティブレベルの学習が行われています。英語中心のモデルが多い中、これだけ多言語に対応しているのは日本語でのビジネス利用や開発において大きな強みになります。
開発者向けの機能として「関数呼び出し」と「構造化されたJSON出力」にも対応しています。これはAIの出力結果を他のプログラムやシステムに渡すときに重要な機能で、たとえば「商品情報を整理してJSON形式で返す」「外部サービスを呼び出すための命令を生成する」といった使い方が可能になります。複数の処理を連携させるエージェント型ワークフローの構築にも活用できます。
- 対応メディア:テキスト・画像・動画(エッジモデルは音声も)
- 対応言語:140以上(日本語含む)
- 関数呼び出し・JSON出力に対応
- エージェント型ワークフローの構築にも対応
どこで使えるか——環境別の利用方法
Gemma 4を試したり使い始めるには、いくつかの選択肢があります。
まずブラウザ上で手軽に試したい場合は「Google AI Studio」が便利です。Googleアカウントがあればすぐに使い始めることができ、コードを書かなくても動作を確認できます。
コードで使いたい開発者には「Hugging Face」や「Kaggle」からモデルをダウンロードする方法が一般的です。自分のパソコンにインストールして動かしたい場合は「Ollama」や「LM Studio」といったツールを使うと、比較的簡単にローカル環境で動かすことができます。
企業や開発チームがクラウド上で利用したい場合は、Googleのクラウドサービスを通じた方法もあります。「Vertex AI」「Cloud Run」「Google Kubernetes Engine(GKE)」といったサービスで展開でき、既存のGoogleクラウド環境への組み込みが可能です。
Androidへの展開も進んでいます。「AICore Developer Preview」を通じてスマートフォンアプリへの組み込みが始まっており、QualcommやMediaTekとの連携のもと、対応スマートフォンでの実行が実現されています。
- ブラウザで試す → Google AI Studio
- コードで使う → Hugging Face / Kaggle(モデルDL)
- 自分のPCで動かす → Ollama / LM Studio
- クラウドで使う → Vertex AI / Cloud Run / GKE
- Androidアプリに組み込む → AICore Developer Preview
まとめ
Google Gemma 4は、性能・機能・ライセンスの三方向から「誰でも使えるオープンモデル」を目指した、今年前半の注目リリースだと感じています。
特にApache 2.0へのライセンス変更は、単なる技術的な進化ではなく戦略的な意味合いが強いと思います。Googleとしては、Gemmaを広く使ってもらうことでGoogle AI StudioやVertex AIへの親しみを持ってもらい、最終的にはGoogleクラウドの利用につなげるという構図が見えます。オープン戦略に見せた囲い込みとも言えますが、使う側にとっては高品質なモデルを無料で利用できるというメリットは本物です。
個人的に気になるのは、エッジモデルの可能性です。E2B・E4Bのような小型モデルがスマートフォン上でオフライン動作できるようになると、クラウドに個人情報を送らずにAIを活用できる場面が広がります。医療・法律・教育といった、プライバシーが特に重要な分野での活用が現実的になってきます。
4サイズ展開で幅広い環境をカバーしながら、ライセンスでも門戸を大きく開いたGemma 4。次のバージョンでどこまで性能と使い勝手が進化するか、引き続き注目していきたいと思います。
参考サイト一覧
- ITmedia AI+ 「Google、エージェント特化の「Gemma 4」をApache 2.0で公開」 https://www.itmedia.co.jp/aiplus/articles/2604/03/news062.html
- gihyo.jp 「Google、ローカルハードウェア上で実行できる高性能なマルチモーダル推論モデルGemma 4をオープンソースとしてリリース」 https://gihyo.jp/article/2026/04/gemma-4
- GIGAZINE 「GoogleがオープンAIモデル「Gemma 4」を発表」 https://gigazine.net/news/20260403-google-released-gemma-4/
- 9to5Google 「Google announces open Gemma 4 model with Apache 2.0 license」 https://9to5google.com/2026/04/02/google-gemma-4/


コメント