人の多様性って、どうやってAIに落とし込む?―Mixture of Personasで広がるLLMのペルソナ設計入門―

  • 2025年4月24日
  • 2025年4月24日
  • AI, 論文

AIを活用して、もっとリアルな「人っぽさ」を再現したい。
そう思ったことはありませんか?

最近のLLM(大規模言語モデル)は確かに賢い。でも、一人のペルソナだけを設定すると、ちょっと一面的な反応になってしまうことも。人間ってそんなに単純じゃないですもんね。

今回紹介するのは、そんな「単一ペルソナの限界」を乗り越えるための設計アプローチです。

https://doi.org/10.48550/arXiv.2504.05019


なぜ単一のペルソナでは足りないのか?

例えば、映画のレビューを書かせたとします。
一見うまく書けているけれど、読んでみると「評論家っぽさ」ばかり。
「普通の人の感想ってこんなじゃないよな?」と感じたこと、ありませんか?

実際の人間社会って、
・詳しい人
・ライト層
・たまに観るだけの人
みたいな多様なスタンスが入り交じっています。

これをLLMに再現させようと思ったら、「一人の意見」じゃなくて「複数の視点の混ざり合い」が必要になります。


混ぜて使う:Mixture of Personas(MoP)という考え方

そこで注目されているのが「MoP(ミクスチャー・オブ・ペルソナズ)」という手法。

複数のペルソナを、あえて一緒にプロンプトに入れる。
そして、その場にふさわしい視点をLLMに選ばせる。
これが基本的な発想です。

たとえば商品レビューを想定するなら、
・リピーター
・初見さん
・値段重視の人
・クオリティ重視の人
こういったキャラクターを事前に用意しておきます。

LLMにそのまま書かせるのではなく、
どの視点をどのくらい混ぜるかを考えながら使うことで、
ぐっと現実味のある出力が得られるようになるのです。


もっと自然に:例文との組み合わせでパワーアップ

視点の切り替えだけでなく、「こんな風に書いて」と例を添えるのも効果的です。

ここでのポイントは「1つだけじゃなく、複数の例を持っておく」こと。
それを入力の文脈に応じて差し替えると、アウトプットがぐっと柔らかくなります。

「この映画のレビュー、アクション好きの口調で」「ライト層の反応も入れて」
…といった感じで、プロンプトの中で使い分けるイメージです。


ペルソナって、どうやって作るの?

データがあれば、そこからペルソナを抽出する方法もあります。

たとえばレビューコメントをたくさん集めて、似たもの同士でクラスタリング。
それぞれのグループに共通の特徴をラベリングしてあげれば、それがもう立派なペルソナです。

この作業も最近はLLMでサクッとできるので、手間は思ったほどかかりません。


実務で使うならこの方法から

学習モデルを作るところまでいかなくても、
・いくつかの視点(ペルソナ)
・複数の例文
このセットをもとにプロンプトを工夫するだけで、かなり多様な出力が引き出せます。

コツは、「対立する立場」を組み込むこと。
違いがあるほど、出力にも厚みが出ます。

プロンプトの最後に一言
「複数の視点からの反応を構成してください」
…これだけで、ぐっと表現の幅が広がることも。

MoPとは?出力にリアルな“ばらつき”を加える仕組み

MoP(Mixture of Personas)は、以下のような特徴を持つ設計手法です。

  • 一つの統一的視点ではなく、複数のペルソナを組み合わせる

  • それぞれに適した例示を用意し、多様な応答を誘発する

  • 出力に集団的傾向や実データに近い自然さを再現することを目指す

このような設計を通じて、「単なる正しさ」ではなく「それっぽさ」と「広がり」を表現できます。


方法の紹介|どのようにMoPを構成するのか?

以下は、研究で実際に用いられたプロセスの一部です。

  1. ペルソナの設計

    • クラスタリングを用いて、元データから自然にグループを抽出

    • 各クラスタに対応する特徴的な視点をペルソナとして定義

  2. 例示(Examples)の収集と付加

    • 各ペルソナに対して、実データから具体的な応答例を抽出

    • 文体、語彙、構文の多様性を保つよう工夫

  3. 出力への適用

    • プロンプト時に複数ペルソナ+例示を混在

    • モデルが各ペルソナを参照しながら応答を生成

  4. 性能評価

    • FID(Frechet Inception Distance)

    • MAUVE(分布類似度)

    • KL Cosine(出力多様性)

いずれのスコアでも、MoPは他手法を上回る結果を記録しました📈


実験から得られた示唆|どの要素が本当に効いているのか?

  • 例示なしでは応答の質が著しく低下

  • クラスタベースのペルソナが最も効果的

  • 例示は1,000〜2,000件で性能が飽和する傾向

  • ペルソナ数は100前後がバランス◎

また、複数のモデル(Llama, Mistral, Gemma)間で転用可能性も確認されており、設計の柔軟性が実証されています。


応用可能なシナリオ|プロンプト設計に活かす視点とは?

この考え方は、次のような実務にも転用可能です。

  • 商品マーケティングでのユーザー反応シミュレーション

  • SNS投稿における多視点のコンテンツ生成

  • データ不足領域での合成トレーニングデータ生成

  • カスタマーサポートチャットボットの自然な対応強化

ポイントは、「出力の多様性=設計された視点の多様性」という観点を持つこと。🎯


結論・まとめ

本記事で紹介したMoP(Mixture of Personas)は、以下のような利点を持つ構成でした。

✅ 単一視点に依存しない、自然で広がりのある出力が得られる
✅ 少量データでも合成によって精度を底上げできる
✅ 設計を他モデルにも適用できる柔軟性がある
✅ 実データに近い“らしさ”を備えた出力が可能

プロンプト設計の段階で、「誰の視点か?」「どのような例示を与えるか?」という問いを明確にすることが、多様性のある出力設計の第一歩になります。

最新情報をチェックしよう!

論文の最新記事4件