IT・コンピュータ

ChatGPTの限界と懸念事項

ChatGPTの概要

ChatGPT は OpenAI が開発した GPT-3.5アーキテクチャをベースにした大規模言語モデルで、インターネット上の情報や文献から学習して 数十億の単語やフレーズを理解することが可能で、質問応答・文章生成・言語翻訳・文章の要約などのタスクを 多数の言語で実行でき、自然言語処理の分野で高い性能を発揮している。

また、現在 偏見や差別的な回答を生成しないためのアルゴリズム開発や、生成した回答に説明責任を負う仕組みの構築が進んでおり、他のAI技術と組み合わせることで、より高度な人工知能の実現に向けた研究開発が期待できるほか、自然な対話や高度な言語タスクが実現されることで 自動翻訳、カスタマーサポート、会話ボットへの利用拡大や、ChatGPTを用いたオンライン学習、病気診断など、教育・医療・法務 などの分野で有効なシステムが開発される可能性がある。

ChatGPTの限界

文脈理解の限界

ChatGPTの 自然言語処理は 前の文脈や背景情報から文脈を理解して実行されるが、長文の文脈は理解できないほか、人間のように情報を把握することもできないため、明示的に言及されていない情報は推測できない。

言語の多様性の限界

ChatGPTは多数の言語を処理できるが、すべての言語をカバーしているわけではなく、特定の言語に関する知識が限定されている場合は ChatGPTの回答に誤りが生じる可能性がある。

文章 生成能力の限界

ChatGPTは単純な回答や文章は生成できるが、複雑な文章や詳細な情報を生成することはできず、人間のような洞察力や判断力がないため、生成される文章に不正確な情報を含んでいる可能性がある。

ChatGPTの懸念事項

倫理的な問題

ChatGPTは完全な人工知能ではなく、巨大なデータセットから学習しているため、 倫理的な判断力や倫理観が欠如しており、偏見や差別的な回答や信頼性に欠ける回答を生成する可能性があるほか、倫理的な問題は解決できない。

誤った情報の拡散

ChatGPT は 大量の情報を処理して 人工的に生成するため 誤った情報を拡散する可能性があり、悪意のある攻撃者が ChatGPT を利用して虚偽の情報を拡散することもできる。

プライバシーの問題

ChatGPT が処理するデータにはユーザーの個人情報や機密情報が含まれており、データが収集される個人に情報が提供されていないことや、収集された個人データが不正確な処理をされる可能性のほか データ漏洩も懸念されている。

2023/3/20 利用者の会話内容や決済情報が漏洩
ChatGPT Plus の利用者の 氏名・メールアドレス・会話の内容 などが他のユーザーに表示される問題が発生。

2023/3/31 イタリア当局が GDPR の調査のため ChatGPT を一時的にブロック
イタリアの個人データ保護当局が ChatGPT が GDPR を順守しているか調査するため ChatGPT をブロックすると発表。

機密情報の漏洩

ChatGPT は機密情報や個人情報の入力しないよう警告しているが、ChatGPT に入力した内容はすべて保存され、AIモデルの改良のために利用でき、特定のプロンプトを削除することもできないため、社内の機密事項が OpenAI に漏洩する危険性がある。 

2023/4/4 に 社内 ChatGPT を利用していた SAMSUNG の機密情報が漏洩
コードの修正や議事録の作成に ChatGPT を使用して情報が漏洩。

ChatGPTの使用時の注意事項

  • ChatGPT が提供する情報の正確性については 人間の確認と判断が必要
  • 個人情報や機密事項の取り扱い