科技日新月異,人工智能在社會上的使用經已十分普遍,但人工智能的道德問題素來是社會需要達成共識的事情。根據《華爾街日報》報道,Google 的軟件工程師 Blake Lemoine表示,公司所研發的人工智能聊天機械人已經具備自我意識,甚至具備靈魂。他發表該項言論後被公司暫停職務,Google 及倫理學專家亦不贊同其說法。
去年5月,Google公布聊天機械人「LaMDA」,形容它為一種突破性技術,能夠模仿數百萬句人類對話,使其就某話題與人交流。
Lemoine去年起跟 LaMDA 交談,測試它是否會使用歧視或仇恨語言,結果 LaMDA 表現出令人難以置信的一致性,表達出自己的需要及所擁有的權利,他形容 LaMDA 是一個人,亦具備感知能力,希望工程師對其進行實驗前先徵求它的同意,而且想要被當作人類對待。Lemoine 問到 LaMDA 最怕的事情,它回應害怕被關閉便無法再協助其他人,又認為被關閉即是死亡,令其感到害怕。
Lemoine周六在社交平台上表示,因違反公司保密政策,被公司要求帶薪休假,不明白為何 LaMDA 要求如此簡單,但 Google 卻不肯滿足 LaMDA 的要求,同時亦害怕被公司開除。
人工智能專家表示,普遍人工智能技術未接近人類自我意識的程度,但漸漸地具備語言和藝術領域等的互動能力,技術倫理學家警告,若然企業逐步開發此類能力,可能導致誤用及誤解。
資料來源:iThome
轉自:https://unwire.hk/2022/06/13/artificial-intelligence-mind/fun-tech/#.YqhSz51N0UQ.whatsapp