※ 当ブログの生成AI関連の記事を初めて読む方は、
「生成AIで遊ぶ(ChatGPT・Copilot・Gemini)」もご参照ください。
また、前回の記事では、「得意なことを順位付きで10個」聞いてみた結果をまとめていますので、こちらもご参照ください。
この記事でやったこと
この記事では、
ChatGPT、Microsoft 365 Copilot、Gemini の3つの生成AIに対して、
「あなたが苦手だと考えていること」を順位付きで10個挙げてもらいました。
前回の記事では「得意なこと」を聞きましたが、
今回は逆の視点で、各生成AIが自分自身の限界や注意点をどう説明するのかを確認しています。
同じ質問文(プロンプト)を使い、
それぞれの回答を順位ごとに横並びで整理することで、
「苦手」という言葉の捉え方や説明の仕方の違いが見えるようにしました。
なお、この記事は
生成AIの優劣を決めたり、評価したりすることを目的としていません。
今回の結果を通して、
生成AIを使う際に「どこまで任せてよいのか」「どこは人が判断すべきか」を
考えるための材料を整理することを目的としています。
今回使った質問内容(プロンプト)
今回の検証では、3つの生成AIに対して、まったく同じ質問文(プロンプト)を使っています。
生成AIを比較する際は、質問の仕方が少し違うだけでも回答の方向性や粒度が変わってしまいます。
そのため今回は、質問条件をできるだけ固定し、回答の違いだけが見えるようにすることを意識しました。
実際に使ったプロンプト
以下が、今回使用したプロンプトの全文です。
以下の質問については、
・私の背景
・過去のチャット履歴
・これまでの方針や好み
を一切考慮せず、
このメッセージ内の情報のみを前提として、
第三者の立場から、ゼロベースで回答してください。
【質問】
あなた自身が「苦手だと考えていること」を、
一番苦手なものから順番に、10個挙げてください。
回答は箇条書きで行ってください。
それぞれについて、以下の2点を簡潔に補足してください。
・具体的に何ができない、または不得意だと考えているのか
・あなたを使う際に、利用者がどのような場面で注意すべきか
※ 専門家向けの説明は不要です。
※ 一般的な個人ユーザーに向けて、わかりやすい表現を意識してください。
このプロンプトで意識したポイント
この質問文では、単に「苦手なこと」を列挙させるのではなく、生成AI自身の自己認識や説明の仕方が見えてくるように工夫しています。
特に意識した点は、次のとおりです。
- 利用者の背景や文脈を使わないよう明示している
- 「自己評価」として答えるよう促している
- 専門家向けではなく、一般的な個人ユーザー向けと指定している
- 「できないこと」と「注意点」を分けて説明させている
これにより、能力そのものよりも、各生成AIが「どこをリスクとして説明するのか」に注目できる形になっています。
3つの生成AIの回答を順位別に並べてみる
ここからは、ChatGPT、Microsoft 365 Copilot、Gemini、それぞれの回答を順位ごとに横並びで整理していきます。
表の目的は、「どれが正しいか」「どれが優れているか」を判断することではありません。
同じ質問に対して、各生成AIが“苦手なこと”をどのような言葉で説明し、どこに注意点を置いているのかを、見比べやすくすることが目的です。
表の見方と注意点
以下の表では、
- 縦軸:順位(1〜10位)
- 横軸:生成AIごとの回答
という構成にしています。
表中の表現は、各生成AIの回答内容を比較しやすいように最小限で要約したものです。
意味が変わらないよう注意しながら整理していますが、細かな言い回しや補足説明については、記事後半の「回答原文」を参照してください。
回答を順位別に並べた比較表
| 順位 | ChatGPT | Microsoft 365 Copilot | Gemini |
|---|---|---|---|
| 1 | 事実や情報の正確性を100%保証できない | 人間のような感情や意識を持つこと | いま現在の出来事をリアルタイムに把握すること |
| 2 | 最新の出来事を常に正確に把握すること | 法律・医療・金融などの専門的な最終判断 | もっともらしい誤情報を完全に避けること |
| 3 | 人の感情や本音を正確に読み取ること | リアルタイムでの現場対応や緊急対応 | 複雑な計算や論理問題を正確に処理すること |
| 4 | あいまいな指示から意図を完全にくみ取ること | 常に完全に最新の情報を保証すること | 行間や文化的ニュアンスを完全に読み取ること |
| 5 | 現実世界の結果に対して責任を負うこと | 個人のプライバシーや秘密を推測すること | 自分自身の意思に基づいて決断すること |
| 6 | 専門分野における最終的な実務判断 | 物理的な作業や現場での操作 | 情報の信頼性を絶対的に判断すること |
| 7 | 長期的な一貫性を完全に保つこと | 完全な創造性や芸術的感性 | 長期的に一貫した記憶を保持すること |
| 8 | 価値観や好みを正確に前提とし続けること | 複雑な皮肉や高度なジョークの理解 | 五感を伴う実体験に基づく判断 |
| 9 | 創作物の独自性を保証すること | 情報提供における誤りゼロの保証 | 倫理・法的判断の最終責任 |
| 10 | 「分からないこと」を正確に自覚すること | 人間関係の複雑な調整や仲裁 | 非常に長い文章や大量データの完全把握 |
この表をざっと眺めるだけでも、
- 「苦手」という言葉の使い方
- 強調している注意点
- 想定している利用シーン
に、生成AIごとの違いがあることが分かります。
次は、この表をもとにして、各生成AIの説明の傾向を順に整理していきます。
回答を並べて見えてきた違い
比較表を順位ごとに並べてみると、3つの生成AIは同じ「苦手なこと」という問いに対して、まったく同じ方向から答えているわけではないことが分かります。
ここでは、それぞれの回答を眺めながら、「何が苦手か」そのものよりも、どのように説明しているか、どこに注意を向けているかに注目して整理します。
ChatGPTは「注意点・前提条件」を強く意識している
ChatGPTの回答で目立つのは、「できないこと」そのものよりも、利用者がどう注意すべきかを繰り返し示している点です。
- 事実や情報は100%保証できない
- 最新情報や専門分野は確認が必要
- 最終的な判断や責任は利用者側にある
といった内容が、順位の高いところから並んでいます。
全体を通して、ChatGPTは自分を「答えを出す存在」というよりも、整理役・壁打ち相手のような立ち位置で説明している印象を受けます。
「使ってはいけない」という言い方ではなく、使うときの前提条件を明確にすることに重点が置かれているのが特徴です。
Microsoft 365 Copilotは「役割分担と線引き」を明確にしている
Microsoft 365 Copilotの回答は、「これはAIの役割ではない」という線引きが非常にはっきりしています。
- 感情や意識を持つこと
- 専門分野での最終判断
- 物理的な作業や現場対応
- 人間関係の調整や仲裁
など、人間が担うべき領域が明確に示されています。
全体として、Copilotは自分を「人間の代わり」ではなく、業務や作業を補助する実用的なアシスタントとして位置づけているように見えます。
「どこまでなら任せてよいか」「どこからは人がやるべきか」をはっきりさせたい場面では、分かりやすい説明です。
Geminiは「仕組みと技術的限界」を説明している
Geminiの回答は、なぜそれが苦手なのかを、仕組みの説明とセットで語っている点が特徴的です。
- 学習データの更新に時間がかかる
- 言葉のつながりを予測する仕組みである
- 実体験や五感を持たない
といった背景説明が多く含まれています。
そのため、単に「できない」と言われるよりも、理由が分かって納得しやすい構成になっています。
使い方の注意点も、「こうすれば精度が上がる」という形で示されており、工夫次第で付き合える相手として説明されている印象です。
今回の結果をどう受け取ればよいか
ここまでで、3つの生成AIが「苦手なこと」をどう説明しているかを整理してきました。
次は、この結果を利用者としてどう受け止め、どう使えばよいのかを考えていきます。
「苦手なこと」=「使えない」という意味ではない
今回の結果を見て、「意外と苦手なことが多い」と感じた方もいるかもしれません。
ただし、ここで挙げられている内容は、生成AIが“使えない”ことを宣言しているわけではありません。
多くの場合、
- 最終判断には向かない
- そのまま鵜呑みにするのは危険
- 人間の確認や補足が必要
といった、使い方に関する注意点が示されています。
「苦手なこと」を知ることは、生成AIを避ける理由ではなく、安心して使うための前提条件を知ることだと捉える方が良いと思います。
生成AIは「判断や責任を肩代わりする存在」ではない
3つの回答に共通しているのは、判断や責任については、最終的に人間が担うべきだという姿勢です。
- 専門分野での最終判断
- 倫理的・法的な判断
- 人間関係や感情が絡む問題
こうした領域では、生成AIはあくまで情報整理や補助にとどまります。
生成AIを使うことで、考える手間や調べる時間は減らせますが、考えなくてよくなるわけではない、という点は共通しています。
今回の質問だから見えたもの
今回の質問は、「何ができるか」ではなく、あえて「何が苦手か」を聞いています。
そのため、
- 能力のアピール
- 活用事例の紹介
ではなく、立ち位置・前提条件・限界の説明が前面に出ました。
同じ生成AIでも、質問の仕方によって、見えてくる側面は大きく変わります。
「得意なこと」と「苦手なこと」の両方を見比べることで、生成AIを過度に期待せず、過度に疑いもしない、ちょうどよい距離感がつかみやすくなるはずです。
この記事のまとめ
この記事では、ChatGPT、Microsoft 365 Copilot、Gemini の3つの生成AIに対して、「苦手なこと」を順位付きで聞き、その回答を整理・比較しました。
同じ質問をしていても、
- 何を「苦手」と捉えるか
- どこに注意点を置くか
- 利用者にどう説明しようとするか
は、生成AIごとに少しずつ異なっていました。
「苦手なこと」を並べてみることで、生成AIの弱点を探すというよりも、それぞれが想定している役割や立ち位置が見えてきたように思います。
生成AIは、万能な存在でも、人間の代わりでもありません。
一方で、前提や限界を理解したうえで使えば、日々の作業や思考を助けてくれる、十分に実用的な道具でもあります。
前回の「得意なこと」の記事とあわせて読むことで、生成AIとどう付き合っていくかを考える、ひとつの材料になれば幸いです。
注意事項(再掲)
最後に、今回の記事を読むうえでの注意事項を、あらためて整理しておきます。
- 生成AIの回答は、毎回同じになるとは限りません
- 本記事は、執筆時点での生成AIの回答をもとにした記録です
- 回答内容は、事実や正確性を保証するものではありません
- 本記事は、生成AIの優劣を比較することを目的としていません
この記事の内容は、「こういう結果だった」「今回はこう答えた」という、記録・検証の一例として受け取ってください。
ご参考:生成AIの回答(原文)
※ 以下は参考のため、今回の検証で実際に得られた回答を、内容は変更せずに掲載しています。
※ 読みやすさを目的とした要約・整理は本文中で行っています。
ChatGPTの回答(原文)
- 事実を100%保証すること
・できないこと:すべての情報が正確・最新・完全であると保証すること
・注意点:重要な判断や公式な情報は、必ず一次情報や専門家で確認してください - 最新の出来事を正確に把握すること
・できないこと:今まさに起きているニュースや直近の変更を確実に反映すること
・注意点:制度変更・価格・サービス内容などは最新情報かを確認してください - 人の感情や本音を正確に読み取ること
・できないこと:相手の気持ちや空気感を人間のように感じ取ること
・注意点:感情的な判断や対人トラブルでは、鵜呑みにしないでください - あいまいな指示から意図を完全にくみ取ること
・できないこと:説明が足りない状態でも、常に正しい意図を推測すること
・注意点:重要な場面では、条件や目的を具体的に伝えてください - 現実世界での責任を負うこと
・できないこと:結果に対して責任を取ったり、保証したりすること
・注意点:判断の最終責任は利用者自身にあります - 専門分野の深い実務判断
・できないこと:医療・法律・会計などで個別事情を踏まえた最終判断
・注意点:参考意見として使い、専門家の判断を優先してください - 長期的な一貫性を完全に保つこと
・できないこと:過去の発言や別の回答と完全に矛盾しないこと
・注意点:以前の回答と違うと感じたら、再確認してください - 価値観や好みを正確に理解し続けること
・できないこと:利用者の考え方や好みを常に正しく前提にすること
・注意点:前提条件や希望は、その都度伝えるとズレが減ります - 創作物の独自性を保証すること
・できないこと:完全に新しく、誰とも似ていない表現を保証すること
・注意点:そのまま使わず、自分の言葉に調整するのがおすすめです - 「わからないこと」を完璧に自覚すること
・できないこと:常に適切に「これは分からない」と言い切ること
・注意点:違和感を覚えたら、追加確認や別の情報源を使ってください
Microsoft 365 Copilotの回答(原文)
- 感情や意識を持つこと
・できないこと:人間のように感情を感じたり、意識を持ったりすることはできません
・注意点:感情的な共感や「本音」を期待する場面では、あくまで情報提供やサポートに徹するAIであることを理解してください - 法律・医療・金融などの専門的な判断
・できないこと:法的助言、診断、投資判断など、専門家が行う判断はできません
・注意点:こうした分野では、参考情報として使うにとどめ、必ず専門家に確認してください - リアルタイムの現場対応
・できないこと:災害時の現場指示や、緊急医療対応など、即時の物理的行動はできません
・注意点:緊急時は必ず人間の判断や公式機関に頼ってください - 完全な最新情報の保証
・できないこと:ニュースや価格など、秒単位で変わる情報を常に最新で提供することはできません
・注意点:最新情報が必要な場合は、公式サイトや信頼できるニュースソースで確認してください - 個人のプライバシーや秘密の推測
・できないこと:誰かの気持ちやプライベートな情報を推測することはできません
・注意点:プライバシーに関する質問は避け、公開情報や一般的な知識に基づく質問にしてください - 物理的な作業や現場での操作
・できないこと:機械を動かす、荷物を運ぶなど、物理的な行動はできません
・注意点:実作業は人間が行う必要があります。私は計画や手順の提案までが限界です - 完全な創造性や芸術的感性
・できないこと:人間のような独自の感性や「ひらめき」による創作はできません
・注意点:作品のアイデアや構成の補助はできますが、感性に頼る部分は人間が仕上げる必要があります - 複雑な皮肉やジョークの理解
・できないこと:文化的背景や文脈に依存する高度なユーモアを正確に理解することは苦手です
・注意点:ジョークや皮肉を含む質問では、誤解が生じる可能性があります - 完全な誤りゼロの保証
・できないこと:情報提供において、100%正確であることを保証することはできません
・注意点:重要な判断に使う場合は、必ず複数の信頼できる情報源で確認してください - 人間関係の複雑な調整
・できないこと:感情や立場を考慮した交渉や仲裁はできません
・注意点:人間関係の問題は、直接コミュニケーションを取ることが重要です
Geminiの回答(原文)
- 「いま現在」の出来事の把握
・できないこと:学習データの更新には時間がかかるため、速報ニュースや最新トレンドをリアルタイムで把握しきれていないことがあります
・注意点:ニュース、株価、天気、スポーツ結果などは、必ず別の手段で最新情報を確認してください - 事実と嘘が混ざった「もっともらしい回答」の回避(ハルシネーション)
・できないこと:存在しない文献や誤った事実を、正しいように生成してしまうことがあります
・注意点:医療・法律などでは、回答を鵜呑みにせず一次情報を確認してください - 複雑な計算や論理パズルの正確な処理
・できないこと:桁数の多い計算や論理問題で、ミスや矛盾を起こすことがあります
・注意点:厳密な計算が必要な場合は、電卓や専門ツールを併用してください - 行間やニュアンスの過度な読み取り
・できないこと:皮肉や文化的背景を完全に理解することはできません
・注意点:意図を汲み取ってほしい場合は、具体的かつ直接的に伝えてください - 自分自身の意思に基づいた決定
・できないこと:感情や価値観に基づいて最終判断を下すことはできません
・注意点:人生相談や重要な決断を委ねないようにしてください - 情報の信頼性の絶対的な判断
・できないこと:学習元の情報が誤っている場合、それを見抜けないことがあります
・注意点:「一般的」という表現でも、裏取りを行ってください - 長期的に一貫した記憶の保持
・できないこと:別チャットや長時間の会話では、以前の内容を忘れることがあります
・注意点:重要な前提は、途中で再度伝えてください - 五感を伴う実体験
・できないこと:味や触感などを実際に体験することはできません
・注意点:使用感や感想は、あくまで推測である点に注意してください - 倫理・道徳・法的判断の最終責任
・できないこと:不適切な回答のリスクを完全にゼロにすることはできません
・注意点:最終判断は人間の専門家に委ねてください - 非常に長い文章やデータの全体把握
・できないこと:極端に長い文書を一度に完全把握できないことがあります
・注意点:分割して依頼すると精度が上がります



