News & Blog
人間-AI協調へ: 人間の特性を考慮したAI導入の必要性

はじめに
生成AIの領域では、検索拡張生成(RAG: Retrieval Augmented Generation)の技術検証からエージェント活用へのシフトが進んでいます。そもそも、エージェントとは、環境を知覚して意思決定を行い、環境に作用する主体のことで、ロボットエージェント群の制御や人工社会シミュレーションなどに応用されてきました。近年、このエージェントに、大規模言語モデル(LLM: Large Language Model)を実装し、マルチエージェントと人間とのシナジーが見出せないかといった検証が行われています。このような背景から、「精度の高いAIを導入する」だけではなく、「人間とAIが協調して問題解決できるようなデザインを実現する」という考え方が広がりつつあります。特に、人間-AI協調(Human-AI Collaboration、 HAIC)に関する研究分野では、AIを使う人間の特性に関する理解が深まりつつあります。本稿では、HAIC関連の研究の一部をご紹介します。
人間には、AIの出力を否定しまう傾向がある
AIの活用が世界的に広がる中、人間の出力と比べてアルゴリズムの出力を否定したり(algorithm aversion)、過剰に高く評価したり(algorithm appreciation)してしまう人間の特性が知られています。例えば、医師に胸部X線画像と診断助言を提示し、その助言の質を評価しながら診断を行わせる実験(実際には、人間の専門医が作成した助言に『AIが生成』とラベルが付いています)では、放射線科医はAIからの助言とされたものを低く評価した一方で、一般医師にはその傾向が見られませんでした[1]。正確性が求められる業務において、「AIが書いた助言」というラベルでもって正解が否定されたという結果は、インパクトのあるものでした。もっとも、その後の類似実験で、この傾向は再現されなかったとの報告もあります [2]。このように、algorithm aversion/appreciationがどのような条件で生じるかについては、いまだ明らかにはなっていませんが[3]、AI開発プロジェクトにおいて、ユーザのなかに、algorithm aversion/appreciationが起きている可能性を念頭に、導入を進めていく必要があると言えるでしょう。
人間は、自分の振る舞いに配慮するAIを好む
また、人間がAIと協調して課題に取り組む場面では、たとえAIが高いパフォーマンスを発揮していても、人間の行動に譲歩する(人間の振る舞いに配慮してくれる)AIのほうを人間が好むことが報告されています[7]。文献[7]では、人間とエージェントが協力して取り組むシューティングゲームを用意し、エージェントの振る舞いを2種類に分けて比較しました。一つは人間が狙いを定めたターゲットをAIが認識して譲歩したり別の領域で活動したりする「協調的」なエージェントであり、もう一つは人間の狙いに関係なく行動するエージェントでした。実験の結果、後者のエージェントを用いた人間-AIチームのほうがスコアは高かったものの、参加者の多くは前者のエージェントとの協働を好むことが明らかになりました。このシューティングゲームが想定するタスク以外にも同様の現象が再現するかは分からないものの、「AIのパフォーマンスが高くとも、ユーザがAIの利用における満足感があるとは限らない」ということは、ユーザに配慮したAI導入の必要性を示唆するものと言えるでしょう。
AI活用の効果はユーザのスキル・経験に依存する
さらに、AIの能力を十分に引き出せるかどうかは、ユーザのスキルや経験にも依存することが知られています。例えば、コミュニケーションスキルが低いユーザほど、AIの性能によってアウトプットの質が大きく左右されやすいことが報告されています[4]。また、大規模EC企業のカスタマーサービス業務におけるフィールド実験では、生成AIアシスタントの導入によって、業務経験が浅い担当者ほど対応速度と顧客満足度が大きく向上した一方、熟練した担当者ではAIの提案内容が自身のスキル水準に及ばず、結果として顧客満足度が低下したことが示されました[5]。
これらの事例から、AI導入にあたっては、どのようなスキル・経験を持つユーザを支援するために導入するのかといった目的の明確化が必要と言えるでしょう。少し踏み込んで言うと、熟練の担当者がDX案件の「有識者」としてアサインされることが多いと思われますが、仮に、有識者がAIの返答を「低品質だ」と断じ、プロジェクトもこれで終了となってしまうと、スキル・経験の大きな底上げにつながっているかどうかという検証はできなくなってしまいます。AIを利用するユーザのスキル・経験等に関する解像度を高く持ってAI導入を進めることが重要です。
さて、ここで、以下に、人間とAIのシナジー(人間-AIの組み合わせが人間単独およびAI単独の双方を上回る成果を生むこと)に関する研究をご紹介します。
そもそも、人間とAIのシナジーは起きにくい
文献[6]では2020年~2023年のHAIC関連論文106本のメタ分析が行われました。結論として、平均的には人間-AIの組み合わせが人間単独あるいはAI単独よりも良いパフォーマンスを示すことはなかったと報告しています[6]。特に、選択肢から正解を選ぶような意思決定タスクでは、AIが「正解」を出力しても人間が否定してしまうことで、人間-AIチームとして不正解になってしまうケースが多いということが分かりました。
一方、人間がAIよりも精度高く判断できるタスクでは、AIの補助があることで人間がより正解にたどり着きやすくなることも示されました。これらの結果から、文献[6]はHAICに関する多くの実験で、人間の能力拡張自体は示されてきたのではないかと結論づけています(※)。ただし、メタ分析対象となった論文の発表年が人間-AIシナジーの程度に相関していたことも指摘されており、研究の進展によって実験デザインが洗練されれば異なる結論が得られる可能性があると付言されています。
人間-AI系の分類と評価フレームワーク
これまでの議論のように、人間-AI系を実現するためには考慮すべき観点が多岐にわたります。また、HAICは新興の分野であり、人間-AI系のパフォーマンスを評価する統一的なフレームワークが存在しないことから、知見の蓄積や異なる研究結果の比較が難しいのが現状です。
文献[8]は、人間-AI協調に関する包括的な文献レビューを行い、人間-AI系を分類するための視点とデザイン原則を提案しています[8]。提案されたデザイン原則は、人間-AI系の評価基準ともなり得るものです。
例えば、人間-AIの相互作用の質をユーザビリティ、信頼性、説明可能性など複数の観点から評価するフレームワークが提示されています。提示されたフレームワークは、ドメイン非依存であり、産業・医療・教育など幅広い応用領域に適用可能とされています。今後、人間-AI系を評価する統一指標が確立されれば、研究成果の蓄積・比較が促進されるだけでなく、人間の特性にも配慮した人間-AI協調重視のAI導入が進んでいくと期待されています。
おわりに
今後のAI導入にあたっては、AIの精度だけでなく、ユーザの特性やスキル・経験、さらには人間の普遍的な選好まで、様々な観点から要件を定義することが重要となるでしょう。AI
Powerhouseでは、HAICの議論も踏まえ、お客さまやユーザに配慮した丁寧なAI導入を旨とし、AI開発およびコンサルティングサービスを提供しています。ぜひお気軽にお問い合わせください。
※本文献では、AIの人間拡張が実現できた論文だけが出版されてきたというバイアスの存在の有無を確認しており、そのようなバイアスがないことを補足しています。
参考文献
1. Gaube, S., Suresh, H., Raue, M., et al. (2021). Do as AI say: Susceptibility in
deployment of clinical decision-aids. npj Digital Medicine, 4(31).
https://doi.org/10.1038/s41746-021-00385-9
2. Gaube, S., Suresh, H., Raue, M., et al. (2023). Non-task expert physicians benefit from
correct explainable AI advice when reviewing X-rays. Scientific Reports, 13(1383).
https://doi.org/10.1038/s41598-023-28633-w
3. Mahmud, H., Islam, A. K. M. N., Ahmed, S. I., & Smolander, K. (2022). What influences
algorithmic decision-making? A systematic literature review on algorithm aversion.
Technological Forecasting and Social Change, 175, 121390.
https://doi.org/10.1016/j.techfore.2021.121390
4. 西岡竜生, 若宮翔子, 清水伸幸, 藤田澄男, 荒牧英治. (2025). JHACE Human-AI Collaboration
の評価法の提案,及び,対人スキルの影響の調査.言語処理学会 第31回年次大会 発表論文集, 737–742.
5. Ni, Xiao and Wang, Yiwei and Feng, Tianjun and Lu, Lauren Xiaoyuan and Wang, Yitong and
Zhou, Congyi, Generative AI in Action: Field Experimental Evidence from Alibaba's Customer
Service Operations (November 06, 2024). Available at SSRN: https://ssrn.com/abstract=5012601
or http://dx.doi.org/10.2139/ssrn.5012601
6. Vaccaro, M., Almaatouq, A., & Malone, T. (2024). When combinations of humans and AI are
useful: A systematic review and meta-analysis. Nature Human Behaviour, 8,
2293–2303.https://www.nature.com/articles/s41562-024-02024-1
7. Mayer, L. W., Karny, S., Ayoub, J., Song, M., Tian, D., Moradi-Pari, E., & Steyvers, M.
(2025). Human-AI collaboration: Trade-offs between performance and preferences. arXiv
preprint. arXiv:2503.00248.
8. Puerta-Beldarrain, M., Gómez-Carmona, O., Sánchez-Corcuera, R., Casado-Mansilla, D.,
López-de-Ipiña, D., & Chen, L. (2025). A multifaceted vision of the human-AI collaboration:
A comprehensive review. IEEE Access, 13,
29375–29405.https://doi.org/10.1109/ACCESS.2025.3536095
