テクノロジー業界や学術界では、オープンソースソフトウェアの利点とリスクについて長年にわたり議論されてきました。最近の生成AIブームは、この議論に新たな意味を持たせています。特に、中国のAIスタートアップ、ディープシークの台頭が注目を集めています。同社は、米国のトップAI開発企業に匹敵するオープンソースモデルをリリースし、より低コストのハードウェアを使用しながらも、高い性能を実現したと主張しています。
この記事では、オープンソースAIのメリットとリスク、ディープシークの戦略、そして政府の対応について詳しく解説します。
オープンソースとは?
オープンソースとは、ソースコードが公開され、誰でも自由に利用・修正できるソフトウェアのことを指します。カリフォルニア州を拠点とする非営利団体オープンソース・イニシアティブ(OSI)によると、オープンソースとして認められるには、配布やアクセスに関する一定の条件を満たす必要があります。
AIモデルが真にオープンであると見なされるためには、開発者がトレーニングデータの詳細を公開し、人々がそのシステムを研究・使用・修正できることが求められます。対照的に、クローズドソースとは、開発者がソフトウェアやモデルを管理し、修正を制限するものを指します。
AI開発企業のオープンソース戦略
多くのテクノロジー企業が、自社のAIソフトウェアを「オープンソース」としてブランド化しています。しかし、すべてが本当の意味でオープンソースとは言えません。
メタ・プラットフォームズ(META)、フランスのスタートアップ企業ミストラル、そしてディープシークは、オープンソースと称するAIモデルをリリースしています。しかし、これらは「オープンウェイトモデル」と呼ばれるもので、モデルのソースコードと重み(ウェイト)の一部を提供するものです。重みとは、AIが学習過程で調整した数値データで、これにより開発者はモデルをカスタマイズしやすくなります。ただし、学習データの詳細は非公開となっています。
例えば、メタはLlamaシリーズの重みと一部のソースコードを提供していますが、学習データの詳細は明らかにしていません。さらに、OSIはメタのライセンス条件が商用利用に一定の制限を加えている点を指摘しています。同様に、ディープシークも「R1」をオープンソースモデルとしてリリースしましたが、コードやトレーニングデータは提供していません。そのため、どのようなデータを使用してモデルを構築したのか疑問視されています。
オープンソースAIのメリット
オープンソースAIを推進する支持者は、次のような利点を挙げています。
- 低コストで利用できるため、多くの開発者や企業にとってアクセスしやすい
- 開発コストが削減され、新たな技術革新が促進される
- AIシステムの透明性が向上し、開発者の責任が強化される
- 市場の競争を促進し、新興企業にも機会を提供する
特に、メタのような企業にとって、オープンソースには「人気」という利点もあります。他の開発者が自由にアクセスできるようにすることで、AIエコシステム全体に影響力を拡大できます。
オープンソースAIのリスク
オープンソースAIにはリスクもあります。主な懸念点として、以下のような問題が指摘されています。
- オープンソースAIは、悪意のある目的にも利用される可能性がある
- 米国では、中国企業が開発したモデルを使用することが、安全保障上のリスクになると考えられている
- 米国企業がオープンソースでAIを公開すると、ライバル国がその技術を活用し、米国の技術的優位性が脅かされる可能性がある
ディープシークがオープンな戦略を取った理由
ディープシークは、比較的オープンなアプローチを採用することで、以下のような効果を狙っていると考えられます。
- 中国政府のテクノロジー管理に対する懸念を軽減
- 欧米市場での普及を促進
- メタと同様のエコシステム構築戦略を採用
メタのマーク・ザッカーバーグCEOもこの動きを認識しており、「AIのオープンソース競争において、中国は全力で走っている」と指摘しています。
ディープシークのAIモデルの特徴
ディープシークの「R1」は、OpenAIやグーグルなどの米国企業が開発する最新モデルと同様に、ユーザーの質問に対して慎重に応答する仕組みを備えています。さらに、ディープシークは以下のような技術的工夫を行っています。
- 限られたチップで効率的にモデルを運用。米国の半導体輸出規制を受け、高性能チップを使用できない中で、より低スペックのチップを活用
- 強化学習の活用。正解には報酬を与え、不正解には罰を与える手法を採用
一方で、OpenAIは、ディープシークが「不適切にモデルを抽出した可能性がある」として調査を行っています。ディープシークはこの件についてコメントを発表していません。
蒸留(ディスティレーション)とは?
蒸留とは、ある企業のAIの出力データを使用し、別のモデルを訓練する手法です。OpenAIなどの企業は、競合モデルの学習に自社AIの出力を利用することを利用規約違反として警告しています。
政府の対応
バイデン政権は、2024年にオープンソースAIモデルに制限を課すのは時期尚早と判断しましたが、将来的には規制の可能性を示唆しています。トランプ政権はまだ明確なAI政策を発表していませんが、イーロン・マスクや副大統領のJD・ヴァンスなど、オープンソースAIを支持する声もあります。
ディープシークをめぐる騒動を受け、ホワイトハウスのAI最高責任者デビッド・サックス氏は、AI企業がモデルを保護する努力をする可能性を示唆しました。
まとめ
オープンソースAIは、イノベーションを促進し、市場の競争を活性化する一方で、安全保障や技術流出のリスクも抱えています。今後のAI開発の方向性と、それに伴う政策の動向に注目が集まっています。