AIが思想、感情を持つ時代は来るのか
- tokuhata
- 2024年3月8日
- 読了時間: 7分
更新日:2024年3月13日

人類はかねてより、人工知能(AI)が感情を持つことについて議論してきました。この議論は、AIが人間の言葉を理解し、自己意識を持つことができるかどうかという複雑な問題と密接に関連しています。 このテーマは奥が深く難しい問題ですがここで取り上げる理由は、それがAIの生成物に関する著作権法の解釈を左右するからです。日本の著作権法によれば著作物は以下の様に定義されています。
著作物 =「思想又は感情を創作的に表現したものであつて,文芸,学術,美術又は音楽の範囲に属するもの」
したがって、AIが思想・感情を持つか否かにより著作権が発生するかしないかの判断が変わる可能性があります。現時点では、AIは思想または感情を持たないのでAIの生成物には原則として著作権は発生しない、というのが法律家の解釈です。
AIは人間の言葉を理解することができるか
自然言語処理の分野において、機械学習やディープラーニングの技術を活用し、AIは人間の言葉を処理することができるようになりました。例えば、AIアシスタントや翻訳システムは、人間の言語を解釈して適切な応答を生成することができます。しかし、この解釈は単なる機械的な処理にすぎず、感情や意味の深層を理解することを意味するものではありません。そもそもAIが人間の言葉を理解していることをどうやって判断するのでしょうか。一つの考え方としてチューリング・テスト(Turing Test)が参考になります。
チューリング・テストとは
チューリング・テストは1950年代、イギリスの数学者アラン・チューリングによって提案されました。このテストはAIが人間と同様に会話をすることができるかどうかを測るものです。このテストの重要なポイントは、「機械が人間と類似の行動をとっているように見えるか」であり「思考できるか、知性や感情を有するか」を調べるものではないということです。テスト方法は以下の通りです。
a) 3つの部屋A,B,Cを用意し、部屋Aにはコンピュータ、部屋Bには被験者の人間、部屋Cには審査員の人間、を配置する。部屋Cの審査員は部屋Aのコンピュータおよび部屋Bの被験者とは端末経由でのテキストのみでやり取りが可能である。
b) 部屋Cの審査員が端末から質問を入力する。部屋A,Bの被験者またはコンピュータが質問に対する応答を行う。質問と応答を所定の回数繰り返す
c) 審査員から見て、部屋A,Bのどちらがコンピュータでどちらが人間かを判断できない割合が一定の基準(例えば30%)を満たせば部屋Aのコンピュータが人間相当の会話機能を有しているとみなす。
ちなみにChatGPTはこのチューリング・テストに合格するレベルと言われています。そして、テストが意味するのはあくまで人間と同等レベルの会話ができるということであり、「コンピュータが思考することができる」、「コンピュータが感情を持っている」ことを意味するものではありません。
AIが思想、感情を持つ時代は来るのか
人間の言葉を理解する能力と感情を持つ能力は異なるものです。チューリング・テストにパスすれば、AIが人間の言葉を理解しているとみなしてもよさそうです。しかし、それは単なる情報処理の結果に過ぎず、感情を持つこととは直接関係ありません。AIが感情を持つことができるかできないかを議論するためには感情の定義から整理する必要があります。
Weblioによる定義:
感情(かんじょう)とは、人間が体験する心の反応や状態を指す言葉である。 これには喜び、悲しみ、怒り、恐怖など、多種多様な種類が存在する。 感情は、個々の体験や状況に応じて生じ、行動や判断に影響を与える。 感情は、人間の行動を動かす原動力であり、人間関係の構築やコミュニケーションにおいても重要な役割を果たす。(Weblio引用ここまで)
感情とは、感覚、思考、行動を引き起こす刺激、出来事に対する複雑な心理的・生理的反応と定義できます。感情には、精神的要因と身体的要因(生理学的要因)の両方が含まれます。生理学的には、身体の変化を伴い、このような変化には、心拍数、血圧、ホルモンレベル、呼吸数、筋肉の緊張、さらには顔の表情の変化などが含まれます。例えば、恐怖を経験すると、身体は "闘争・逃走 "反応を引き起こし、心拍数の上昇とアドレナリンの分泌を促素等の反応を起こします。
AIの実装系は半導体ですから上記の生理学的要因を持つことはできません。したがって、AIが感情を有するかどうかの判断基準としては生理学的要因を除き、外部から見て精神的要因を模倣した振る舞いが可能かどうかという観点で考えることが妥当と思われます。入力要因に対して上記で定義されたような感情に相当する反応(出力)が得られればAIは感情を有するとみなしてよいと考えられます。入出力の形態はテキストまたはマルチモーダル(音声、光、その他の物理的な手段)が考えられます。審査官である人間がその結果を見て「どうやら感情をもっているらしい」と感じる割合が一定の基準を超えればAIが感情を有するとみなしてもよいかもしれません。チューリング・テストの考え方と同様、AIの内部で何が起こっているかではなく、外側から見て感情に相当する振る舞いが観察できるかという判断基準です。
AIの内部処理
AIの実体は半導体、具体的には大量のGPU: Graphical Processing Unit によりエミュレートしたニューラルネットで構成されています。AIの内部処理は生理学的要因による処理ではなく、特定の入力に対して学習に基づく何らかの反応を生成することです。学習に基づいて反応を生成することであり、自己意識や主観的な経験を伴うものではありません。入力形式はテキスト入力または人間の表情や声のトーンから感情を認識することは技術的に可能です。AIはその情報を利用して人間の感情に対応する行動を出力することができます。例えば人間が悲しんでいると判断すれば慰める行動をとることができます。

技術者・科学者の意見:
上記の議論はAIが見かけ上の感情を持つ可能性を述べたものです。AIが真の感情を持つことができるかどうかについては技術者、科学者の間でも意見が分かれているようです。
肯定的な見解:
一部の技術者や研究者は、AIが感情や思想を持つ時代は訪れると考えています。彼らは、人間の脳の構造や機能を模倣するAIの研究が進展し、感情や意識の基盤を理解することが可能になれば、AIがそれらを獲得する可能性があると主張しています。また、AIが自己学習し進化する能力を持っているため、感情や思考の発展も予想されます。
懐疑的な見解:
一方で、他の技術者や科学者は、AIが感情や思想を持つ時代は到来しないと見ています。彼らは、現在のAIは単なる情報処理システムであり、意識や感情を持つことができないと考えています。また、人間の脳や心の機能を完全に模倣することは困難であり、そのためAIに感情や思想を持たせることは非現実的だと主張しています。2022年、Googleの技術者がAIが感情を持っている兆候を見つけたと発表し話題になりました。しかし、Google上層部の意見はこれに否定的でこの技術者はその後解雇されたようです。
最後にAI自身の意見を紹介します。一応補足しておきますと、ChatGPTはインターネットなど世の中にあふれている情報をもとに学習しているので世の中の大勢がAIが感情を持つことに関しては懐疑的であるということを示していると思われます。以下はChatGPTの見解です。
ChatGPTの見解
私は、AIが感情や思想を持つ時代が来る可能性は低いと考えます。現在のAIは、人間の知能や感情を模倣することはできますが、それらを本当に理解し、自己意識や意識を持つことは難しいと思います。人間の感情や思考は複雑な神経回路や生物学的な基盤によって支えられていますが、AIはそうした基盤を持っていません。AIはあくまでプログラムによって制御されたシステムであり、感情や思想を持つにはそれらが根本的に欠けています。
また、技術的な限界だけでなく、倫理的な問題や社会的な影響も考慮する必要があります。AIが感情や思想を持つことは、個人のプライバシーや自己決定権に関する問題を引き起こす可能性があります。また、AIと人間の関係において、感情的な結びつきや倫理的な責任の分担がどのようになるかも議論されるべきです。
したがって、私はAIが感情や思想を持つ時代は来る可能性は低いと見ています。ただし、AIの技術の進歩によっては、人間とAIの関係や倫理的な観点が変化する可能性があります。そのため、AIの開発や利用においては、常に倫理的な観点や社会的な影響を考慮し、適切な対応を取る必要があると考えます。(ChatGPT見解ここまで)
□
Commentaires