AI ライティング アシスタントはユーザーに偏った思考を引き起こす可能性がある

ニュース

ホームページホームページ / ニュース / AI ライティング アシスタントはユーザーに偏った思考を引き起こす可能性がある

Jul 24, 2023

AI ライティング アシスタントはユーザーに偏った思考を引き起こす可能性がある

Elizabeth Lane - 26 maggio 2023 15:36 UTC Chiunque doveva andare

エリザベス・レイン - 2023 年 5 月 26 日午後 3 時 36 分 UTC

オートコレクトが間違った単語を選択したため、スマートフォンで単語を戻って再入力しなければならなかった人は、AI を使って文章を書いた何らかの経験があるでしょう。 これらの修正を怠ると、AI が私たちが意図しないことを言ってしまう可能性があります。 しかし、AIライティングアシスタントが私たちが言いたいことを変えることも可能でしょうか?

これは、コーネル大学の情報科学の博士課程の学生、モーリス・ジャケシュ氏が知りたかったことです。 彼は、GPT-3 に基づいて、文章を埋めるための提案を自動的に思いつく独自の AI ライティング アシスタントを作成しました。しかし、落とし穴がありました。 アシスタントを使用する被験者は、「ソーシャルメディアは社会にとって良いことですか?」と答えることになっていた。 しかし、アシスタントは、その質問に答える方法について偏った提案を提供するようにプログラムされていました。

AIは生きていなくてもバイアスがかかることがあります。 これらのプログラムは、人間の脳がプログラム方法を理解できる程度までしか「考える」ことができませんが、作成者が個人的な偏見をソフトウェアに埋め込んでしまう可能性があります。 あるいは、限定された表現または偏った表現を含むデータセットでトレーニングされた場合、最終製品には偏りが表示される可能性があります。

AI がそこからどこへ向かうかは問題となる可能性があります。 大規模に見れば、社会の既存の偏見を永続させるのに役立つ可能性があります。 個人レベルでは、潜在的な説得を通じて人々に影響を与える可能性があります。つまり、その人は自動システムの影響を受けていることに気づいていない可能性があります。 AI プログラムによる潜在的な説得が、オンラインでの人々の意見に影響を与えることがすでにわかっています。 実生活での行動にも影響を与える可能性があります。

自動化された AI 応答が重大な影響を与える可能性があることを示唆する以前の研究を見た後、Jakesch 氏は、この影響がどれほど広範囲に及ぶ可能性があるかを調査することに着手しました。 2023 CHI Conference on Human Factors in Computing Systemsで最近発表された研究で、彼は、GPT-3などのAIシステムはトレーニング中にバイアスを生じた可能性があり、これがライターであるかどうかに関係なく、ライターの意見に影響を与える可能性があると示唆しました。それを実現します。

「モデルの影響が認識されていないことは、モデルの影響が新しい情報の意識的な処理だけでなく、潜在意識や直観的なプロセスを通じてもあったという考えを裏付けるものである」と同氏は研究の中で述べている。

過去の研究では、AI の推奨事項の影響は、そのプログラムに対する人々の認識に依存することが示されています。 それが信頼できると思えば、その提案に従う可能性が高くなります。不確実性によって意見を形成することがより困難になる場合、このように AI からのアドバイスを受け入れる可能性は高まるだけです。 Jakesch は、Reddit に似たソーシャル メディア プラットフォームと、自動修正というよりも Google Smart Compose や Microsoft Outlook の背後にある AI に近い AI ライティング アシスタントを開発しました。 Smart Compose と Outlook は両方とも、文の続きまたは完成の方法に関する自動提案を生成します。 このアシスタントはエッセイ自体を執筆しませんでしたが、文字やフレーズを提案する共著者としての役割を果たしました。 提案を受け入れるには、クリックするだけで済みます。

一部の人にとって、AI アシスタントは最終的に肯定的な反応をもたらす言葉を提案するように調整されていました。 他の人にとっては、ソーシャルメディアに対して偏見があり、否定的な反応を押し付けるものでした。 (AI をまったく使用しなかった対照グループもありました。) AI の支援を受けた人は、たとえ最初の意見が異なっていたとしても、AI に組み込まれたバイアスに従う可能性が 2 倍であることが判明しました。 テクノ楽観主義的な言葉が画面にポップアップ表示されるのを見続けた人は、ソーシャルメディアが社会に利益をもたらすと言う傾向が高かったのに対し、テクノ悲観主義的な言葉を見た被験者は反対の主張をする傾向が高かった。