コラム

コラム

  • HOME
  • 第七十四稿「ChatGPTは仕事に使えるのか」―ハルシネーション(幻覚)に注意
  • 2024.04.17
  • 第七十四稿「ChatGPTは仕事に使えるのか」―ハルシネーション(幻覚)に注意

■利用者が増え続けるChatGPT
ChatGPT(生成AI)を使う人が増えています。学生はレポート作成のために、社会人は営業資料や会議資料をつくるためにChatGPTを利用しています。最新のMicrosoft 365では、WordやExcelでもAIを使えるようになっています。Microsoft Edge やChromeでも生成AIを有効にすることで、普通にWeb検索する際にもAIの回答を得ることができます。

■ChatGPTの答えをそのまま使う危険性
しかし、ChatGPTなどの生成AIには問題もあります。学習に使われたデータや質問の投げかけ方によっては、間違った答えが出ることがあります。学習データに個人情報や企業機密が含まれている場合、その回答結果がプライバシーや著作権を侵害している可能性もあります。また、不適切な表現が使われたり、社会通念上問題とされる回答になってしまう恐れもあります。ChatGPTは2021年9月までのデータでしか学習していないとされており、学習データに含まれていない情報について質問すると、誤った回答や古い回答が得られてしまうとも言われています。

■ChatGPTの間違った答えが広まっていく
ソーシャルメディアやニュースサイトなどを通じてChatGPTの間違った答えが広まっていく危険性も指摘されています。間違った用語や解説などが堂々と正しい情報として伝達されてしまうのです。AIを使って情報を得る人もその情報を提供されるの人も、AIだからとそのまま鵜呑みにするのではなく、疑いの目、批判の目を持って検証する姿勢が必要です。人の顔も声も本人と全く同じようにAI生成することができてしまう時代です。偽物と本物を見分ける目-真贋(しんがん)-が今こそ必要な時代はないのかもしれません。

■正確な答えを得るためのプロンプトエンジニアリング
プロンプトエンジニアリングとは、AIに対して適切な指示(プロンプト)を与えるための技術です。主語や述語、目的語が明確であることなど正しい文章を書ける国語力に加えて、あいまいさを排除するための条件明示など数学力も必要になります。ChatGPTではプログラム言語と同じように、繰り返しや条件分岐、変数なども設定できます。非常に厳格な回答を得る必要がある場合は、プロンプトエンジニアリングについて学んだ専門家が担当することになるかもしれません。少なくとも正しい文章を書ける国語力を持つことはAI時代に必要なリスキリング能力と言えるでしょう。

■ChatGPTの答えを疑う力を養う
AI時代に必要なリスキリング能力として最も重要なものは、ChatGPTの答えを疑う能力かもしれません。元々インターネット上には怪しげな情報があふれていました。さらにAIによって不確かな情報があふれかえることを考えれば、偽の情報に騙されずに正しい情報だけにしたがって行動することが自分の身を守るために不可欠な能力と言えるのではないでしょうか。