Googleの会話型人工知能「LaMDA」が感情を持ったと主張していた同社のエンジニアBlake Lemoine氏が、Googleから解雇されたと報じられています。解雇の理由は、製品情報を保護する必要性を含む雇用とデータセキュリティのポリシーの違反と説明されています。
AIが感情を持ったと主張したエンジニア、ポリシー違反で解雇される
Googleが開発中のAI「LaMDA」が感情を持ったと主張していたGoogleのエンジニアBlake Lemoine氏が、Googleから解雇されたことが明らかになりました。Alex Kantrowitz氏がスクープとしてニュースレターBig Technologyで伝えています。
Scoop: Google fired Blake Lemoine today, the senior software engineer who called its AI sentient. https://t.co/mifORJlHue
— Alex Kantrowitz (@Kantrowitz) July 22, 2022
Blake Lemoine氏は2022年6月、ワシントン・ポストにLaMDAが感情を持ち始めたと語り、Mediumにも自身の考えを投稿。WIREDのインタビューでは「LaMDAは人であると信じています」とも述べていました。
「AIが感情を持った」という言葉が強い興味をひき話題になりましたが、多くのAIの専門家らは現時点では不可能であるという考えが大勢を占めていました。
LaMDAはLanguage Model for Dialogue Applicationsの略で、対話に特化したAIです。LaMDAは大量のテキストデータを機械学習し、最適な回答を返すというものですが、会話に発生する「意図」は学習してません。自然な会話ができたとしても、会話にAIの「意図」はないため、感情が存在するとは考えにくいでしょう。
Googleは解雇の理由について、Blake Lemoine氏が「製品情報を保護する必要性を含む明確な雇用とデータセキュリティのポリシーに執拗に違反することを選んだ」と説明しています。