人們潛意識里會把機器人當作同類?一套“AI道德準則”可能是必要的:兩性共同歡樂

時間:2023-12-09 08:30:50 作者:兩性共同歡樂 熱度:兩性共同歡樂
兩性共同歡樂描述::人們潛意識里會把機器人當作同類?一套“AI道德準則”可能是必要的 隨著科技發展,機器人已經逐漸進入了我們的生活。它們出現在很多地方:工廠里、家庭里,不僅可以在荒無人煙的地方工作,也可以在人流洶涌的公共場所為人類服務。 但人類將如何看待機器人、如何對待機器人,這類問題時常為人所忽視。 近日,北卡羅來納州立大學的一項研究發現,人們可能會把工作場所的事故歸咎于機器人,但前提是他們相信機器人是自主的。 該文章的作者、心理學教授道格·吉蘭(Doug Gillan)表示,重要的是當工作中發生事故時,人們如何看待機器人。 為了探究這個問題,研究人員進行了一項研究,向164位受訪者展示了幾個工作場所的場景,在這些場景中,一個人類員工與一個機器人同時發生了事故。當被告知是人類在操作機器人時,受訪者通常會將事故歸咎于人類。當被告知機器人是自主的,而人類只是在監控它時,受訪者通常會責怪機器人。 “這一發現多少有點直觀,但它指出了一個基本問題:我們什么時候把犯錯的責任從人類轉移到機器人身上?”該研究中的北卡羅來納大學(NC State)的心理學教授道格·吉蘭(Doug Gillan)表示。 這項研究提出的這個問題發人深省。當人們“甩鍋”給機器人的時候,他們內心深處是否認為機器人是一個能獨立做出決定、有著自我意識的個體,與我們有著同樣的智慧水平? 畢竟,人們在砸歪鐵釘時并不會去責怪錘子,在切到手指時不會責怪水果刀,大多數人也不會責怪自家寵物貓狗打翻水杯、撕碎沙發。 人們確實會對機器人產生同情心 此前亦有另一項研究表明,人類其實可以與機器人“共情”。 荷蘭內梅亨大學的Sari Nijssen和德國慕尼黑大學發展心理學教授Markus Paulus領導的研究小組開展了一項研究,以確定人們對機器人的關注程度,并如何根據道德原則對待它們。他們的發現發表在《社會認知》(Social Cognition)雜志上。 根據Sari Nijssen的說法,這項研究是為了回答以下問題:“在什么情況下,以及在何種程度上,成年人愿意犧牲機器人來拯救人類的生命?” 參與者面臨著一個假設的道德困境:他們會為了拯救一群受傷的人而讓一個人處于危險之中嗎?在呈現的場景中,預期的犧牲受害者可能是一個人,或一個具有不同程度擬人化面貌的人形機器人,或是一個可以清晰識別為機器的機器人。 研究表明,機器人越人性化,參與者犧牲它的可能性就越小。在有些場景中,機器人被描繪成一個富有同情心的生物,或者是一個有自己感知、經歷和想法的生物,這更有可能阻止受試者為了不知名人類的利益而犧牲它。 事實上,當被告知機器人所表現出的情感品質時,許多實驗對象表示愿意犧牲受傷的人類來保護機器人免受傷害。 Paulus說:“機器人越像人類,尤其是越擁有人類的情感,我們的實驗對象就越不愿意犧牲它。” “這一結果表明,我們的研究小組賦予了機器人一定的道德地位。這一發現的一個可能含義是,試圖使機器人人性化的嘗試不應該走得太遠。這樣的努力可能會與它們的預期功能——幫助我們——發生沖突。” 就在不久之前,網上流傳過一個波士頓動力公司發布的機器人被人類踢打的視頻。該視頻最后被發現是由CG合成的假視頻,制作方也是Bosstown Dynamics而非真正的Boston Dynamics,但的確有不少觀眾看后表示為機器人感到難過,對折磨它的人感到憤怒。 “他們為什么要傷害那臺可憐的機器?”許多人問道,“當然,它感覺不到任何東西,但這并不意味著他們可以那樣對待它。” 這是完全可以理解的反應,盡管機器人沒有意識,也感覺不到疼痛。 大量研究表明,讓人類像對待人類一樣對待機器人是一件容易得可笑的事情。如果他們要求我們不要拒絕,我們會覺得不好受;如果他們作為權威人物出現,我們會服從他們的命令;我們會對接觸他們的敏感部位感到不舒服。 這并不奇怪。人類會對任何事物產生同理心,只要你把一張臉放在上面。正如麻省理工學院(MIT)研究員、機器人倫理學家凱特•達林(Kate Darling)所言:“從生物學角度來說,我們天生就會將意圖和生命投射到我們物理空間中任何我們認為是自主的運動上。所以人們會像對待活人一樣對待各種機器人。” 這在一方面可能是好處,比如能幫助老年人的護理機器人、作為伴侶的玩具機器狗等。但是有些公司卻可能會利用我們的同理心,比如利用機器人吸引小孩子的注意,然后進行營銷。 機器人的“道德準則” 但問題也就隨之而來了:機器人值得同情嗎?我們需要擔心人們呼吁尊重機器人權利嗎? 關于機器人可能的道德倫理問題,有些人只簡單地把他們看作是人類的工具,只關注人類在使用機器人技術時對人類社會和環境的責任;有些人卻把它們看作是潛在的人,或者人類的代理。 但務實地講,機器人可能很快就會在工廠、公共場所和家庭中大量出現,它們可能會占據人類的角色,并做出各種決定。我們將不僅需要對機器人的動作進行外部控制,還需要開發機器人內部(自)導向系統。 我們不妨稱這些系統為“道德準則”,并將機器人視為負有道德責任的動物。如果是這樣,那么將“道德責任”植入機器人將不僅是可取的,而且是勢在必行的。 此外,可以認為,人工智能的復雜性將不可避免地迅速增長。我們可能會越來越多地看到他們有自己的需求、興趣和偏好,這樣我們就會對他們有道德責任,就像機器人對我們有道德責任一樣。 有些人認為,在可預見的技術范圍內,機器人表現出的任何心智能力都是假的——機器人只是在模擬思維、智能、意識、自主決策或其他任何東西。 這里有兩種觀點:一種是保守的,認為機器人倫理是一種理論幻想;一種是激進,認為這是一種務實的需要。 至少在可預見的未來,機器人還不會離人類社會如此之近。盡管如此,我們仍有一項緊迫的技術和道德責任,必須設法確保機器人的行為充分接近道德上可接受的人類行為——也就是說,我們將需要為人工智能發展出一種特殊的道德準則,即關于它們如何對待我們和它們自己,以及我們如何對待它們。
站長聲明:以上關於【人們潛意識里會把機器人當作同類?一套“AI道德準則”可能是必要的-兩性共同歡樂】的內容是由各互聯網用戶貢獻並自行上傳的,我們新聞網站並不擁有所有權的故也不會承擔相關法律責任。如您發現具有涉嫌版權及其它版權的內容,歡迎發送至:1@qq.com 進行相關的舉報,本站人員會在2~3個工作日內親自聯繫您,一經查實我們將立刻刪除相關的涉嫌侵權內容。