AIをビジネスに活用するために踏むべきステップとは? データサイエンティストを代替するAIツールで成果を得た企業の事例も紹介
- 予測モデル
- インタビュー
- 導入事例
- ../../../article/2020/03/aimodel.html

LLMとは、"Large Lanuage Model"の略称で、日本語では大規模言語モデルと呼ばれる。従来の言語モデルよりも膨大な量のデータを学習し、ディープラーニング(深層学習)を利用して構築されたモデルで、自然な文章の生成や複雑な質問への回答が可能。代表的なLLMとして、Googleが開発したBERTやOpenAIが開発したGPTシリーズがある。
LLM(大規模言語モデル)とは、大量のデータ学習と高度なディープラーニング(深層学習)技術によって構築された言語モデルです。言語モデルとは、テキストデータを学習し、次に来る単語の出現確率をモデル化する技術を指します。これに対し、LLMは、従来の言語モデルよりも計算量やデータ量、パラメータ数を大幅に増加させることで、高精度な言語理解を実現し、人間に近い流暢な会話が可能です。
しかし、LLMには、虚偽や誤解を招く情報を生成してしまう「ハルシネーション」や、悪意のあるプロンプトを入力して不適切な行為や回答させる「プロンプトインジェクション」といった問題も存在します。
最近では、LLMの開発コストの高さや学習時間の長さから、モデルの規模を抑えたSLM(小規模言語モデル)も台頭してきています。LLMが汎用的な処理を得意とする一方で、SLMは医療や金融など特定の分野に特化しています。
(参考)LLMとSLMの比較
LLM | SLM | |
---|---|---|
パラメータ数 | 数百億~数千億 | 数億~数十億 |
得意なタスク | 幅広い分野 | 特定分野 |
開発コスト | 非常に高い | 比較的低い |
学習時間 | 数十日~数か月 | 数日程度 |
LLMは、以下のステップにより文脈を考慮した自然な文章を生成することができます。
入力文をトークンと呼ばれる最小単位に分割します。トークンは単語や句読点、記号などで構成され、コンピュータが理解しやすい形に処理されます。
各トークン間の関連性を計算し、文全体の文脈を把握します。これにより、LLMは単なる単語の並びだけでなく、より深い文脈を理解することが可能です。
ニューラルネットワークを用いて、入力データの特徴を抽出し、トークンが持つ意味や関連性を学習します。
次のトークンを予測し、最も確率の高い単語を選択します。このプロセスにより、LLMは自然なフレーズを生成することが可能です。
2017年にGoogleの研究者が発表した「Transformer」をベースに、現在数多くのLLMが開発されています。ここでは、代表的なLLMをご紹介します。
BERT(Bidirectional Encoder Representations from Transformer)とは、2018年にGoogleが発表した自然言語処理モデルです。文章を文頭と文末の双方向から学習させることで、より精密に文脈を読むことができるようになりました。
LaMDA(Language Models for Dialogue Applications)は、2021年にGoogleが発表した会話特化の大規模言語モデルです。他の言語モデルとは異なり、対話を通して学習を重ね、構築したモデルであり、幅広いテーマに自然な会話で対応できます。
他のLLMと比較して、文脈の理解や文章生成に優れているのが大きな特徴です。また、テキストや画像、音声など多様なメディアを入出力・処理する能力をもつマルチモーダルモデルです。
LLMは、文章の作成・要約・校正や翻訳、検索エンジン、カスタマーサポート(チャットボット)プログラムなど、自然言語を用いるさまざまなタスクに活用されています。また、音声や画像など多様なメディアを処理できるマルチモーダルモデルも台頭してきており、文章以外にも画像・動画の生成など、さらなる活用が期待されています。