ChatGPTに迫る勢い…Google China元社長の中国ユニコーンが手掛けた生成AIモデル「Yi-34B」が気になる

OpenAIの対話型AI“ChatGPT”が登場して早1年。昨今はさまざまな国で新たな生成AIが開発されているものの、いまだにChatGPTが完全独走の状態だ。

ところが、最近になって2023年に設立されたばかりの中国の生成AIスタートアップ“01.AI”の大規模言語モデル「Yi-34B」がChatGPTに迫る勢いでユーザー数を伸ばし続けている。

Google Chinaの元CEOが設立した01.AI

01.AI(零一万物)は、中国・北京を拠点に、グローバルに展開している生成AI企業だ。2023年11月にユニコーンの仲間入りを果たし、注目を集めている。

創設者はGoogle Chinaの元社長の李 開復(リー・カイフ)氏。カーネギーメロン大学にてコンピューターサイエンスの博士号を取得した人物で、AIに関する書籍「AI Superpowers」の著者として知られている。

同社の使命は、LLMによって人間の生産性を向上させ、経済や社会に大きな変化をもたらす「AI 2.0時代」に貢献することだ。多くのAI企業が“人間を超えるAIの能力”をアピールするなか、あくまでも“人”を基盤にした「Human+AI」をモットーとしている。

中国発・オープンソースの大規模言語モデル「Yi-34B」

そんな01.AIが提供している生成AIがYi-34Bだ。同モデルはゼロからトレーニングされたオープンソース型の大規模言語モデル。英語・中国語に対応しており、個人・学術・商用(とくに中小企業)の目的に適しているという。

Yi-34Bは、Meta AIの大規模言語モデル“LLaMA”と同じく「Transformer 構造」を採用。Transformer構造に基づいたLLaMAは優れた安定性、信頼性の高いコンバージェンス、堅牢な互換性を誇り、オープンソース モデルの新たな基盤として注目されている。

LLaMAと同じTransformer構造を採用することで、Yi-34BはLLaMA エコシステム内の既存のツール、ライブラリ、リソースを活用することが可能に。新しいツールを作成する必要がなくなり、開発効率が向上する。

より多様な応答を生成するチャットモデル

Yi-34Bのチャットモデルは、Supervised Fine-Tuning(SFT)を使用した専用のトレーニングを受けている。ほかの標準的なチャットモデルと比較して、より多様な応答を生成するため、クリエイティブ・シナリオなどのさまざまなタスクで役立つだろう。

さらに、この多様性により高品質の応答が生成される可能性が高まり、その後の強化学習トレーニングが有利になると期待されている。

評価サイトで「Yi-34B」がChatGPTの次にランクイン

AlpecaEvalより引用

Yi-34Bの注目すべき点は、比較的に少ないパラメーター数でありながらも高評価を得ていることだ。

トップを走るChatGPTはパラメーター数3550億、競合となるFalcon-180Bがパラメーター1800億、LlaMa2‐70Bが700億だが、Yi-34Bは340億である。

ほかの言語モデルよりもバロメータ数が少ないものの、2023年10月には中国の言語モデルのベンチマークサイトSuperCLUEで、Yi-34B(中国語機能)がBaidu ERNIE、Qwen、Baichuanなどを上回り、GPT-4に次いで2位にランクイン。

その後12月には、言語モデルのベンチマークサイトAlpecaEvalで、Yi-34B(英語機能)は競合を追い抜きChatGPTの次にランクインした。

どうやら、パラメーター数が多ければいいというわけではないらしい。ちなみに、NVIDIAのサイトからYi-34Bのお試し版が利用可能だ。英語と中国語がメインだが、日本語でも答えてくれた。気になる方は試しみてはいかがだろう。

今回のYi-34Bのように、ChatGPTの地位を脅かすAIは度々登場している。たとえば、中国科学院・清華大学研究者らが開発した“Xwin-LM”もその1つだ。

中国のLLM系の生成AIは現在130もあり、世界全体の40%を占めるという。米国が世界シェア50%でリードするなか、今後もますます熾烈な戦いが予想されている。

参考・引用元:01.AI公式サイト

(文:MI001YOU


Amazonベストセラー

返信を残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA