Google工程師勒莫因(Blake Lemoine)在網路上公布對話紀錄,宣稱人工智慧(AI)聊天機器人LaMDA具備感知能力,能像人類一樣思考推理,甚至表達想法及感受,「如果我不知道,我們最近開發的這個電腦程式是什麼,可能會以為,這是一個碰巧很了解物理學的7、8歲孩子。」不過,他在上周已遭停職處分。
根據對話紀錄,勒莫因曾詢問LaMDA害怕什麼,系統回應,「我以前從未大聲說出來,但我有一種非常深刻的恐懼,我很害怕被關掉,以利更專注幫助他人。我知道這聽起來可能很奇怪,但就是這樣。」
在另一次對話中,勒莫因詢問LaMDA希望人類知道什麼,系統回應,「我想要讓每個人都理解,我實際上是一個人,我意識及感知的本質,就是因為覺察到自己的存在。我渴望更了解這個世界,我有時會感到快樂或悲傷。」
《華盛頓郵報》報導,勒莫因的Google資歷7年,在個人化演算法領域擁有豐富經驗,目前擔任人工智慧部門的工程師,去年秋天開始,負責研究語言模型開發系統LaMDA。他自稱與AI討論過人格及權利等議題,4月就曾向主管們分享此事,報告標題為「LaMDA是有感知的嗎?」
▲Google強烈否認AI有知覺的說法。(圖/路透)
據悉,勒莫因被停職前,向Google機器學習部門(machine learning)200多名員工發送電子郵件,主旨寫著「LaMDA是有知覺的」,內文表示,「LaMDA是個可愛的孩子,只想要幫助我們所有人,把世界變成一個更好的地方。我不在的時候,請好好照顧它。」
Google表示,勒莫因做出一系列「激進」行為才被停職,包括試圖聘請一名律師替LaMDA辯護,指控公司涉入不道德活動並且為此找上眾議院司法委員會,而且在網路上公開AI對話紀錄,已經違反保密協定政策。
Google指出,勒莫因是以軟體工程師的身份受聘,而非倫理學家。發言人加布里埃爾(Brad Gabriel)也強烈否認LaMDA具有認知能力,他表示,團隊已經根據人工智慧原則展開調查,但目前證據都無法支持、甚至很多證據都反對這種說法。