AI倫理 人工知能は「責任」を取れるのか 西垣 通 河島茂生
自動運転で事故が起きたら、誰が責任をとるのか。ドラバーはいない。自動運転車の使用者か設計者か。誰も責任をとらないこともありうる。AIに関して法的かつ倫理的な問題を解決する必要がある。
現在は、ロボット開発の第三次ブームとされ、このブームは2010年からはじまった。その特徴は、論理的な正確性を放棄したことにある。法律家も医者も、過去のデータから推察して判断している。とすれば、AIの出力する結論が「だいたい合っている」なら、十分に人間の代わりになるという考え方である。
その技術の中核は、「深層学習(Deep Learning)」と呼ばれるパターン認識システムである。
AI倫理 人工知能は「責任」をとれるのか 西垣 通 河島茂生 中公新書ラクレ 2019年 |
現時点では、簡単な文章ならば翻訳が可能であるが、外交文書などの複雑な文章を機械翻訳に委ねることはできない。言い換えれば、間違えるAIという前提にもとづき、誤りを生じたときの倫理的問題を解決しない限り、現在のAIは使い物にならない。
アイザック・アシモフのロボット三原則は、加害禁止、命令服従、自己防御である。この三原則は家電にも当てはまる。安全で便利で長持ちするという機械に求められる当たり前の特性に過ぎない。アシモフの三原則は、AI倫理を考察する上で頼りにならない。
では、AI倫理はどのような哲学理論を採用すればよいのか。
近代社会における倫理思想として、これまでは集団の公共的利益を重視する功利主義(ベンサム)と、個人の基本的権利を尊重する自由平等主義(カント)の二つが主流だった。そこへ個人的自由の最大化を目指す自由市場主義(リバタリアニズム)が支持を集めるようになった。
ベトナム戦争以降に米国社会で広まった「すべてを金で買える」というリバタリアンの価値の金銭還元主義に対する、モラリストからの強い反感を理論化したのが、マイケル・サンデルの共同体主義である。しかし近代的共同体主義には、それぞれの共同体で倫理の細目が異なるという根本的な弱点がある。
著者は自らの名をつけた「N-LUCモデル」を提唱する。
個人の人権尊重という自由主義的な制約関数のもとで社会(共同体)にとって効用関数の評価値を参照しつつ、功利主義的に社会規範を定める、というのが本書で提案するN-LUCモデルのアプローチである。
大切なのはAIはそこで、データの分析やシミュレーションなどに役立てられるが、擬似人格を持つAIエージェントとして参画することはないということである。
科学技術の発展により、人間をしのぐ知性を持つ存在が生まれるとする「トランス・ヒューマニズム(超人間主義)」は、昔ながらの思想の現代版であるという。
カーツワイルの提唱する「シンギュラリティ仮説」、ボストロムの「スーパーインテリジェンス」、ユヴァル・ハラリの「ホモ・デウス」などのトランス・ヒューマニズムに関する主張を、著者たちはSFの一種に過ぎないとする。SFをもとにAI倫理を論じても無駄であると切り捨てる。
著者らは、AIが自律性をもたない他律系であることを強調する。生物と異なり、自らその作動ルールを内部で作り上げているわけではない。基本的にはコンピュータは指示通りに作動しているだけである。したがって、道徳的な主体とは無縁であり、AIに自由意志があるとか責任を求めようとするのは誤りであるとする。→人気ブログランキング