目次

はじめに:LLMが“刺さらない”理由

AIの進化が目覚ましい今、ソフトウェアエンジニアも日常的にLLM(大規模言語モデル)を活用する時代になりました。
知らない言語、初めて触れるコード、設計の壁──。そんなとき、ChatGPTやClaudeに頼る人は多いでしょう。

しかし──

「LLMの説明、なんかモヤっとする」
「自分の理解の仕方に合ってない」

…と感じたこと、ありませんか?🤔

実は、その違和感こそがAI活用の本質的課題
“エンジニアの個性”にLLMが対応できていないのです。


問題は「説明スタイルの画一性」にある

人がコードを理解するプロセスは、決して一様ではありません。

  • 説明から入るタイプ

  • とりあえず手を動かしたいタイプ

  • 原理から納得したいタイプ

  • ざっくり感覚で進めたいタイプ

このように、“認知スタイル”は千差万別

それにもかかわらず、ほとんどのLLMは
「誰にでも同じような言い回しで」
「同じような順序で」
コードの説明を提供します。

つまり、ユーザーの“学び方の違い”を無視している

これは、せっかくのAI活用を“平準化”してしまっている原因の一つなのです。


認知スタイルに対応するためのアプローチ:GenderMagとは?

ここで登場するのが「GenderMag(ジェンダーマグ)」という概念。
本来は、性別による技術利用の違いを評価するために設計された手法ですが、
近年では「個人の問題解決スタイルの違いを捉える分析軸」として再注目されています。

GenderMagが定義するスタイルは以下の5つ。

  1. 学習スタイル(計画型or試行錯誤型)

  2. 自己効力感(自信の有無)

  3. リスク態度(慎重or大胆)

  4. 情報処理スタイル(広範囲に調べるor一点集中)

  5. 動機付け(効率重視or探究心重視)

これらのスタイルをエンジニア個人に適用することで、
「誰にどんな説明が最も刺さるか」が明確になるのです。


LLMを“パーソナライズ”するという発想

では、これをLLMにどう活かすのか?

ポイントは以下の通り👇

  • ユーザーのスタイルを事前に取得(アンケート or 過去の応答からの推定)

  • スタイルに合わせてプロンプトや出力を調整

  • 同じコードでも**「説明の順序・言葉の選び方・例示方法」**を変える

たとえば──

🔸直感型のエンジニアには「まず動かせるコードを提示してから要点だけ説明」
🔸理論派のエンジニアには「前提知識 → 背景説明 → 構造的な解説」の順で

このように、“相手に合わせたLLMの振る舞い”が可能になることで、
理解スピードも、納得感も、一気に向上するのです。


実際の研究で明らかになったこと

今回紹介する研究では、エンジニアの認知スタイルに応じて説明を調整するLLMのプロトタイプを構築。

そして、実験により次のような成果が示されました。

  • 各スタイルに合わせた説明の方が、満足度・理解度が高い

  • 特に「自信がない層」に対して、安心感と納得感が増す

  • 全体として、学習効率が平均18〜27%向上

つまり、“人に合わせたLLM”は、性能が上がるだけでなく心理的にも効果があるというわけです。


方法の紹介|スタイル適応型LLMの実装アイデア

実際に導入する際のステップをまとめてみましょう。


スタイル適応型LLMの設計ステップ:

  1. エンジニアごとの問題解決スタイルを把握(アンケート or ユーザーログ解析)

  2. プロンプトテンプレートを分岐させる(スタイル別に作成)

  3. 応答を生成する際に、ユーザーに合ったテンプレートを選択

  4. フィードバックを収集し、精度を微調整


技術面での実装ポイント:

  • メタプロンプト+動的補完(LLMのchain構造を活用)

  • 回答の分岐管理にはLangChainやFlowiseなどが有効

  • ユーザーセグメントの管理にRAGやベクトルDBも活用可能


実験設計|COBOLを題材に多様なエンジニアで検証

研究チームは、COBOL(レガシー言語)を題材に選びました。
理由はシンプル。誰もが未経験だからです。

これにより「スキル差によるバイアス」を排除し、説明の良し悪しだけに集中できます。

参加者は53名。多様な性別・年齢・開発経験のあるエンジニアたちです(おそらくIBM所属)。

💡 3つのCOBOLプログラムを用意:

  • フィボナッチ数列の計算

  • 無限ループを含むカウンタープログラム

  • じゃんけんゲームロジック

これらのコードを抽象化(変数名を意味不明にするなど)し、LLMの説明に頼らざるを得ない状況を作りました。


実験方法|3種類の説明パターンを提示

各エンジニアには、以下の3パターンのLLM説明を提示しました。

  1. 自分の問題解決スタイルに合わせた説明

  2. 自分と真逆のスタイルに合わせた説明

  3. 汎用的・平均的な説明(調整なし)

そのうえで、以下を評価させました👇

  • 安心できたか(心理的安全性)

  • 信頼できたか(AIとの関係性)

  • 理解しやすかったか(認知的負荷)

  • 実際に役立ったか(有用性)

定性的な発言(Think-aloud)と、定量的な評価スコア(10段階評価)を併用。


実験結果|「人に合わせたLLM」が圧倒的に好まれた

🔹主な発見ポイント:

✅ 自分に合ったスタイルで説明された方が、平均で18〜27%高い評価
✅ 特に「自信が低い・慎重なエンジニア」において、心理的安全性が大きく向上
✅ 自分と真逆のスタイルだと、理解が妨げられるケースが多数

つまり──
LLMが「その人のスタイル」に合わせて説明を変えるだけで、理解の質と満足度が激変するのです。


✅ ケース1:学習スタイル別(手順型 vs 試行錯誤型)

  • 調整後の説明は両タイプにとって包括性(分かりやすさ)が向上

  • 特に手順型は「情報が段階的で理解しやすい」と高評価

  • 試行錯誤型は「軽量で要点がつかめる」説明に好感

👉 公平性も改善し、両者にとってベストな説明が成立!


✅ ケース2:自己効力感が低い人に配慮した説明

  • 「初めてのCOBOLでも大丈夫!一緒にやっていきましょう」といった表現を追加

  • 安心感と信頼感が向上し、理解度も大幅UP

  • 自信がある人にとっては、やや効果が薄かったが、全体の評価差は縮小

👉 不利なグループを支援し、結果的に公平性を高めた


✅ ケース3:技術を“楽しむ”タイプ vs “目的重視”タイプ

  • 楽しむ派に対して:
     親しみある語り口 → 「子ども扱いされているよう」と逆効果に

  • 目的派に対して:
     簡潔な説明 → 「中身がなさすぎてイラつく」と不満

👉 スタイルへの調整が“逆効果”になるケースも!


見えてきた本質|LLMのパーソナライズには「慎重さ」が必要

この研究から分かることは明確です。


🎯 LLMは「個性に合わせる」ほど、理解度も公平性も高まる。

ただし、
「合わせ方」や「スタイルの解釈」を誤ると逆に悪化することもあります。


例えば:

  • 優しく説明 → 甘く見られてると感じる

  • 要点だけ説明 → 不親切・粗末に見える

  • 親しみ口調 → 子ども扱いのようで不快に

「逆のスタイル」で説明されたらどうなる?

思い込みの罠と、AIパーソナライズの難しさ

ここまでの実験では、LLMがエンジニア個人のスタイルに合わせた説明をすると、理解度と公平性が高まることが明らかになりました。

では逆に──

もし、AIが“間違ったスタイル”で説明してしまったら?

このシナリオは現実的です。
ユーザーのスタイルを誤って推定したり、情報が不十分だったりしたとき、LLMは「逆方向の調整」を行ってしまう可能性があります。


① 学習スタイル:試行錯誤型 vs 手順重視型

意外にも、試行錯誤型のエンジニアは、手順的な説明でも案外うまく対応できることが分かりました。

むしろ「知らなかった構造が分かって新鮮」「体系的に理解できて面白かった」といった前向きな反応すらあり、学びの新しいきっかけになるケースも見られました。

しかし、その逆──

手順重視型のエンジニアが“感覚的な説明”を受けた場合は悲惨です。

  • 「情報が曖昧すぎる」

  • 「飛ばしすぎて分からない」

  • 「何をどうすればいいか見えない」

包括性(理解しやすさ)は明確に低下し、不満が強く現れました。
この非対称性は、あるスタイルは“逆の説明”でも耐えられるが、もう一方は致命傷になることを示しています。


② 自己効力感:自信のある人 vs 不安のある人

自己効力感が低いエンジニアが「自信満々な人向け」の説明を受けた場合──

不安が倍増。

  • 「冷たい」「突き放された感じ」

  • 「これは自分向きじゃない」

  • 「安心して読めない」

逆に、自己効力感が高い人が「丁寧で優しい説明」を読んだ場合──

  • 「まどろっこしい」

  • 「イラつく」

  • 「子ども扱いされている感じがする」

どちらも不快感と理解度の低下を引き起こし、公平性が大きく損なわれる結果に。


③ モチベーションタイプ:技術を楽しむ vs 目的重視

この対比も極めて明確です。

技術を「楽しみたい」タイプのエンジニアに対して、目的重視の淡々とした説明を出すと──

  • 「無味乾燥で面白くない」

  • 「感情が置いてけぼり」

一方、目標達成志向のエンジニアに対して、「遊び心ある語り口」を使うと──

  • 「時間の無駄」

  • 「いらない装飾で集中できない」

つまり、どちらのタイプも“逆方向”に合わせられると、逆に嫌悪感が生まれるのです。


複数のスタイルをどう扱うか?|AIパーソナライズの次なる壁

ここで浮かび上がる新たな課題──

「一人の人間は、ひとつのスタイルだけを持っているわけではない」という事実です。


例えば、

  • 学習スタイルは手順重視だけど、

  • リスクには積極的に挑戦するタイプ。

こんな人に、どちらかのスタイルだけに偏った説明を出すとどうなるか?

「この説明は自分に合ってるけど、なんか不安」
「分かるけど、刺さらない」

というように、説明の中で矛盾や違和感を感じてしまうことがあるのです。


また、複数スタイルに応じた調整を同時に施そうとすると、

  • 情報が多すぎて混乱する

  • 優しすぎて逆に気持ち悪い

  • 要点が薄れてしまう

といった調整ミスが起きる可能性もあります。


AIが真に“パーソナライズ”されるには、単一軸ではなく、複数スタイルを複合的にバランスよく適用する能力が求められます。
これは非常に重要であると同時に、今後の研究・開発で避けては通れないチャレンジです。


結論・まとめ|「説明の仕方」でLLMは変わる。人の理解も変わる。

今回紹介した研究が示したのは、ただ一つのシンプルな真実。


🧠 人はそれぞれ異なる「学びのスタイル」を持っている
🤖 AIはその違いに対応できるようになるべきだ


✅ LLMは、スタイルに合わせた説明で理解度・公平性が改善する

❌ 逆方向の説明は、誤解・不信・格差を生む

⚠️ 複数のスタイルが重なる場合、調整は一筋縄ではいかない


この知見は、プロンプト設計だけでなく、プロダクトUX、教育支援、社内研修、チーム開発、すべてのAI活用シーンに応用できます。

「誰のためのAIなのか?」を考える設計が、これからの本当のAIパーソナライズの核心になるのです。


感想|あなたのLLM、合ってますか?

  • 自分の学び方、ちゃんとLLMに伝わってる?

  • もしかして“逆の説明”で、もやもやしてない?

  • チームメンバー全員、同じ説明で大丈夫?

「パーソナライズ」は、単なる技術ではありません。
それは“人間理解”の本質に立ち返る、AI時代の倫理であり戦略です。

ぜひあなたのスタイルに合ったAIとの対話を、探してみてください。

最新情報をチェックしよう!

論文の最新記事4件