paint-brush
いいえ、人工知能を恐れることはありません。他人が怖い@marshallowitz
1,325 測定値
1,325 測定値

いいえ、人工知能を恐れることはありません。他人が怖い

Sofia Marshallowitz7m2024/03/25
Read on Terminal Reader

長すぎる; 読むには

人工知能の人間化は、責任の帰属とその真の能力の理解に課題をもたらします。主体性の幻想から AI アートにおける倫理的考慮事項まで、人間化された機械の複雑さと、人間とインテリジェント システムの間の進化する関係を探ります。
featured image - いいえ、人工知能を恐れることはありません。他人が怖い
Sofia Marshallowitz HackerNoon profile picture
0-item

2017 年、ロボットが仕事に疲れて噴水で自殺しました。そして 2022 年、 Google のエンジニアは、同社のチャットボットである LaMDA と対話した後、テクノロジーが意識化されたと宣言しました。最近、2021年にテスラのソフトウェアエンジニアが制御不能のロボットに襲われたと報じられた。これには、機械が仕事を奪うという恐怖や、機械が世界を征服するという古典的なフィクションが考慮されていません。


『ブレードランナー』では機械をレプリカントとして見ませんが、人間は人間以外のものを擬人化したり、人間の性質を帰属させたりする傾向があります[1]。これはシナリオを分析し、それを私たちの理解に取り入れるための方法です。私たちは船や竜巻に名前を付け、ペットに話しかけ、ペットが与えてくれる心地よい感覚は愛だと言います。私たちが話しているモデルが確率論的なオウムにすぎない可能性があることを受け入れるよりも、一人称で「ごめんなさい、私はあなたを助ける方法がわかりません」と宣言するシステムを理解する方が簡単です。 [2]


したがって、擬人化された相互作用は、実際にはそのような能力を持たない実体に自律的な行動や制御を帰属させる傾向を指す心理学的概念である「主体性の幻想」の現象に関連しています。言い換えれば、エージェント(人、動物、機械)が実際には外部要因(計算の場合は開発)によって決定されているにもかかわらず、エージェント(人、動物、機械)が自らの自由意志で行動しているという誤った認識です。ルール)。


AI システムが誤った決定や動作を行う状況では、これらのエラーを人間によるプログラミングや設計の結果ではなく、エンティティの「選択」とみなす傾向があります。これは特に、AI の利己的なバイアスが報告されているためです。否定的な結果の原因と責任を自分自身に起因しないものとして誰かに認識させる人間は、人間と機械の相互作用でも観察できます [3]。


この認識の変化は、司法規制の問題としてではなく、人間の作成者、運営者、規制者の責任を免除する危険な傾向にあります(これには依然としてギャップがあり、主題の複雑さだけでなく、人工的な規制のせいで実現には課題があります)インテリジェンスは機械学習としてのみ理解されることが多く、その前提が適切に構築されていません。より厳格な規制が必要ですか? より多くのリスクを取る必要がありますか?) が、技術倫理の問題についてです。


2023 年に起こった、より極端だが実際に起きた出来事を考えてみましょう。チャットボットに感傷的な感情を抱いていたユーザーが、自分の考えをボットに共有し、「言葉を行動に変えてください」 という応答やその他のメッセージを受け取った後に自殺しました。この製品の開発者に対する裁判所の有罪判決により、メッセージの内容と愛情が同じである場合、別のチャットボットが無効化されていると仮定して、別のユーザーが別のチャットボットに対して同じように行動することになるでしょうか?それは単なる法的な状況ではありません。それは社会的、心理的、技術的な教育の問題です。


AI を人間化するという概念は曖昧であり、AI の設計と利用のベスト プラクティスを決定する、広く受け入れられているアプローチが存在しないことが大きな課題となっています。人間の動作を模倣したインターフェイスはより親しみやすいものになる可能性がありますが、製品内で何を行うべきか、何をすべきでないかを定義する明確な境界はありません。最終的には、ユーザーの拒否が唯一の制限要因になりますが、インターフェイスがあまり馴染みなくなる前に、潜在的な害が現れる可能性があります。


ユーザーフレンドリーなインターフェイスは、その背後で動作するシステムの複雑さを軽減します。しかし、システムがどのように機能するかについての教育がない限り、ユーザーは自分が何を使用しているかについて批判的に考えることができません。これは誰もがプログラマーになるべきだという意味ではありませんが、少なくとも画面上の出力はデータ収集、モデル開発、設計という経路から来ていることを理解してください。一連のルールが存在します。擬人化は私たちユーザー側のほぼ無意識の行為なので、少なくとも少しの知識で制限しましょう。


また、特に業界、メディア、日常生活そのものの標準言語である機械学習、コンピュータービジョン、生成モデリングを考慮すると、AI についてコミュニケーションするときに擬人化を避けるのは簡単ではありません。人工知能に対する認識は、言語の特定の使用法によって影響を受ける可能性があります。


AI がどのように提示されるかは、特に人々が行われた仕事に対する責任と認識を分配する方法に「具体的な影響」を及ぼします。単に人間の手にあるツールとして説明されると、コードを操作する人など、特定の個人に大きな責任とメリットが与えられる傾向があります。一方で、AI が人間の特性 (創造する能力など) で特徴付けられている場合、独立した思考と精神的能力を備えたエージェントのように、より大きな信用と責任を負うに値するとみなされます。 [4] 人工知能に関係する事件や異常な出来事に関するニュース記事を読むと、これらの用語によく遭遇します。


また、「知性」の帰属は、たとえ自律的行動がタスクに直接寄与していなかったとしても、タスクの結果に対する非難や功績が、非自律的ロボットよりも自律的行動を持つロボットに帰せられることを意味します。 [3] したがって、これらの研究は、人間が機械の擬人化された精神能力に基づいてコンピューターやロボットに責任を割り当てることができることを示唆しています。


機械の人間化は、装置の責任とその作成者である人間の責任との区別を変えるだけでなく、意図や意識を機械に帰属させることによって、同時に真の自律性と意識を構成するものの境界があいまいになります。


しかし、人間性と知覚力を機械に帰属させることの難しさは、人工知能にはそれができないという事実だけではなく、たとえば人工知能が恐怖を感じると言うとき、実際には学習したことをエミュレートして繰り返しているという事実だけではありません。その背後に何の本質もない言葉。今日でも、意識をどのように定義するかについて激しい議論が行われています。人間としての私たちの意識。


脳がどのように機能するかについての私たちの理解はまだかなり限られています。私たちは、ニューロンが活性化する仕組みや化学信号の伝達など、基礎的な化学についてかなりの知識を持っています。また、脳のさまざまな領域の主な機能についてもよく理解しています。ただし、これらの機能がどのように私たちを調整するかについてはほとんど知識がありません。理論的な推測は、脳内で何が起こっているかについての詳細な神経生理学的研究にある程度取って代わられてきました。しかし、それ以上はどうでしょうか? [5] なぜ私たちは自分自身についてこのような魔法のような概念を持っているのでしょうか?同じ経験が私たちに異なる影響を与えるのはなぜですか?私たち全員が同じ感情を同じように感じているでしょうか?

人間であるということが、私たちが経験していることはあっても、それが全体として何なのかをまだ完全には理解していないものであるとしたら、どうして機械もこの複雑さを経験していると言えるでしょうか?機械を人間の能力まで高めることで、人間の特殊性が薄れてしまいます。


ブラジル文学界で最高の栄誉の一つである2023年のジャブチ賞について、ブラジル書籍商工会議所(CBL)は、1818年に出版された古典小説『フランケンシュタイン』を、同作家がAIソリューションを使用して開発したと報告したため、最優秀イラスト部門から失格にすることを決定した。アート。皮肉なことに、ノンフィクション部門でこの賞に選ばれた本の 1 冊は、人工知能が人間に与える影響を扱っています (「Humanamente Digital: Inteligência 人工中心部の人間」、「Humanly Digital: Human-Centered Artificial Intelligence」のようなもの)英語、カシオ・パンタレオーネ著)。一方で、私たちは人間の経験と機械が絡み合っていることを認識しています。一方で、たとえ機械学習によって行われたとしても、芸術的プロセスにはアクションが必要であるにもかかわらず、アートツールとして使用されるアルゴリズムが有効な創作方法とみなせるかどうかは、まだ検証できていません。人間の美しさと美的感覚)。


無差別に使用されない限り、機械が仕事を奪うことはありません。機械は武器として使われない限り人を殺しません。機械もまた、私たちからのデータで訓練され、私たちだけが本当に感じることができる感情を満載しているため、テキストはこれをエミュレートしますが、苦しんだり共感したりしません。それらは、ゴーレム神話のほぼ現代版です。人間はどのようにして人間以外の知性と関わることができるのでしょうか?擬人化は有効な答えですが、唯一の答えではありません。そして、それが使用された場合、適切かどうかにかかわらず、その結果に対する本当の責任、つまり私たちを免除することはできません。


人工知能は結局のところ、私たち自身を映す鏡です。そして、私たちがそれがどこに行くのかを恐れているなら、それは実際に私たちがこれから作り出す道を恐れているからです。

参考文献

[1] エプリー、N.、ウェイツ、A.、およびカシオッポ、JT (2007)。人間を見ることについて: 擬人化の 3 要素理論。心理学的レビュー、114(4)、864–886。 https://doi.org/10.1037/0033-295X.114.4.864

[2] シュナイダーマン、B. & ミューラー、M. (2023) 。 AI擬人化についてhttps://medium.com/human-centered-ai/on-ai-anthropomorphism-abff4cecc5ae

[3] 河合裕也、三宅哲也、Park, J. 他擬人化に基づいたロボットへの因果関係と責任の帰属。 Sci Rep 13、12234 (2023)。 https://doi.org/10.1038/s41598-023-39435-5

[4] Epstein, Z.、Levine, S.、Rand, DG、および Rahwan, I. (2020)。 AI によって生成されたアートの功績は誰に与えられるのでしょうか? iScience (Vol. 23、Issue 9、p. 101515)。エルゼビア BV. https://doi.org/10.1016/j.isci.2020.101515

[5] ゴフ、P. (2023)。意識の理解は脳化学の探求を超えます。サイエンティフィック・アメリカンhttps://www.scientificamerican.com/article/ Understanding-ciousness-goes-beyond-exploring-brain-chemistry/


次のプロンプトにより、この記事で使用されている画像が生成されました。「鏡を見ている男性を作成しますが、その鏡はロボットのような形をしています。」ソフィア×DALL・E