Shisa.AIが新しい言語モデル「Shisa V2.1」を公開
2025年12月9日、東京都港区に本社を置くShisa.AIは、新たな日英バイリンガル汎用チャットモデル「Shisa V2.1」シリーズのリリースを発表しました。このモデルは、従来の「Shisa V2」をさらに進化させ、日本語の性能と効率性を大幅に向上させたものです。
モデルのバリエーション
「Shisa V2.1」は、スマートフォンでも利用できる1.2Bから、GPT-4並の日本語性能を備えた14B・70Bまで、全5つのサイズで提供されています。お手軽に利用できるよう、HuggingFaceでの無料ダウンロードに加え、新たにAPIを用いた有料提供も開始しました。
小型化と高性能化の両立
Shisa V2.1の特徴として、より小さなモデルでありながら、以前のモデルを超える日本語性能を実現した点があります。特に、14BはShisa V2の70Bを凌ぐ日本語性能を誇り、サイズは5分の1にもかかわらず、動作速度やメモリ使用量を大幅に削減しています。
70Bモデルも、国産の最大規模モデルであるShisa V2 405Bに匹敵する性能を持ち、こちらも約6分の1のサイズに収まっています。パラメータ数が少ないと、それだけ必要なメモリが減り、結果的に推論速度が早まるため、同じ性能をより低コストで享受できるようになります。
言語能力の向上
日本語の能力向上にあたり、データセットの80%以上を刷新。さらに、SFT(Supervised Fine-Tuning)やDPO(Direct Preference Optimization)、そしてRL(強化学習)やモデルマージ技術を導入することで、実環境での実用性を向上させています。これにより、特に日本語の出力時に混入する他言語の「言語漏れ」を業界で初めて定量化する評価手法を開発しました。この効果によって、多くのモデルと比較して最高の出力精度を達成しました。
API提供と商用利用
新モデルの発表と同時に、テキスト、翻訳、音声APIも利用できるようになりました。また、「chotto.chat」という翻訳サービスも展開しており、個人から法人まで高品質な日英翻訳を簡単に体験できます。
コストや環境構築の障壁を下げ、高性能なモデルを手軽に利用できるサービスを目指し、OpenRouter経由で低価格で提供される予定です。トンネル構築やカスタム学習といったさらなるニーズにも対応しています。
国内開発とAMDハードウェアの活用
Shisa V2.1のモデルは、AMD Developer CloudのMI300X GPUを使用して学習されました。日本初の大規模LLMであり、AMDハードウェアで学習されたことは特筆です。そのため、学習効率をあげるための独自の技術も公開されています。
Shisa.AIの背景
Shisa.AIは、シリコンバレーでの技術チームを核として成り立つ次世代AIスタートアップ。日本語特化のAIとデータドリブンな開発により、オープンソースLLMの進化に挑戦し、日本からのAIイノベーションを世界に発信しています。
関連リンク
興味のある方はぜひ公式サイトや関連リンクをチェックして、この新しい言語モデルの可能性を探ってみてください。