AIをビジネスに活用するために踏むべきステップとは? データサイエンティストを代替するAIツールで成果を得た企業の事例も紹介
- 予測モデル
- インタビュー
- 導入事例
- ../../../article/2020/03/aimodel.html

SLMは、"Small Language Model"の略称で、日本語では小規模言語モデルと呼ばれる。LLM(大規模言語モデル)と比較して学習データ数やパラメータ数が少なく軽量で、医療や金融など特定の専門分野の処理を得意としている。また、工場のエッジデバイスやスマートフォンなどにも導入することが可能。代表的なモデルとして、MicrosoftのPhiシリーズやGoogleのGemmaが挙げられる。
SLM(小規模言語モデル)とは、その名前の通り、データ学習数やパラメータ数が少ない軽量なモデルを指します。多くの生成AIに使用されているLLM(大規模言語モデル) が膨大なデータを学習し、汎用的な処理を得意とする一方、SLMは特定の分野や目的に関するデータを重点的に学習します。そのため、モデルの規模を抑えつつ、学習させた特定の分野に対してはLLMを超えるパフォーマンスを発揮することも可能です。
(参考)SLMとLLMの比較
SLM | LLM | |
---|---|---|
パラメータ数 | 数億~数十億 | 数百億~数千億 |
得意なタスク | 特定分野 | 幅広い分野 |
開発コスト | 比較的低い | 非常に高い |
学習時間 | 数日程度 | 数週間~数か月 |
ここでは、SLMの主なメリットについて説明します。
SLMの注目が集まる背景には、LLMの開発と運用にかかる高いコストがあります。LLMの学習には、大量のデータや計算リソース、長い時間が必要なため、大きなコストが発生します。それに対してSLMは、LLMと比べて少ないGPUや学習データで開発可能なため、コストを抑えることができます。
モデルのサイズが小さく、プライベートなクラウド環境やオンプレミスにデプロイできるため、プライバシーとセキュリティの向上を実現することが可能です。
SLMは特定のデータに特化して学習を行うため、学習時間を短縮することができます。LLMが数週間から数か月かかることが多いのに対し、SLMは約数日で学習を完了させることが可能です。
SLMは軽量であるため、スマートフォンやIoT機器でも運用可能です。ネットワークに接続していない環境でも利用でき、例えばスマートフォンでSLMを動かし、カメラで撮影した写真に画像認識を行うことなどが可能になります。
以下に、SLMの主なデメリットについてご紹介します。
SLMは特定の分野に特化したモデルです。そのため、LLMと比較すると汎用的なタスクには向きません。
特定の専門分野に特化しているがゆえに、学習に必要なデータを集めるのが難しい場合があります。専門性の高いデータは、そもそも量が少ないケースも多いです。
多くの一般的な事前トレーニング済みLLMは、使いやすさを追求し、専門知識がなくても簡単に利用できる傾向にあります。これに対し、SLMはニッチなデータセットに基づいて正確なファインチューニングが必要であり、データサイエンスや業界の専門知識が求められることが多いです。
GPT-4o miniは、OpenAIが2024年7月に発表した軽量な自然言語処理モデルです。ChatGPTにも使われるGPT-4oの優れた言語処理能力を保ちながら、より小型で効率的な設計が特徴になっています。
Phiシリーズは、Microsoftが開発した高性能かつコスト効率の高いモデルです。言語処理、コーディング、数学的推論などにおいて、LLM を凌ぐ性能を示すこともあります。
Google傘下のGoogle DeepMindによって、Geminiをベースに開発されたモデルです。2025年5月には、スマートフォンやタブレットなどのモバイルデバイスを動作するのを念頭に置いた「Gemma 3n」が発表されました。
OpenELM(Open-source Efficient Language Model)は、Appleが2024年4月に発表したモデルです。スマートフォンやタブレットなどの小型デバイスでも効率的に動作するのが特徴です。2億7000万、4億5000万、11億、30億 のパラメータ数が異なる4つのモデルが用意されています。
SLMは特定のニーズに応じてカスタマイズすることが可能なため、あらゆる場面の活用が期待できます。例えば、金融機関における融資審査や法律事務所での契約書レビューなど、専門的な知識が必要なタスクで活用されています。その他にも、SLMを工場のエッジデバイスに組み込んでセンサーからデータを収集し、設備の予知保全をするといった用途でも使用されています。