• <acronym id="g0ewy"></acronym>
  • <object id="g0ewy"></object><kbd id="g0ewy"><optgroup id="g0ewy"></optgroup></kbd>
  • 黃治清:人工智能的倫理問題(一)

    ———從AI原則和亞馬遜丑聞說起
    選擇字號:   本文共閱讀 161 次 更新時間:2019-08-02 08:57:34

    進入專題: 人工智能   科學   倫理  

    黃治清  

      

       人工智能(Artificial Intelligence,縮寫為AI)亦稱機器智能,指在機器上的模擬人類智能,也有稱AI指由人制造出來的機器所表現出來的智能。通常人工智能是指通過計算機程序來模擬人類智能。計算機科學中也有將人工智能研究定義為對“智能代理”(intelligent agent)的研究:任何能夠感知其環境并采取行動以最大限度地實現其目標的設備。另一方面從詞的角度看,人工智能的定義可以分為兩部分,即“人工”和“智能”。“人工”即由人設計,為人創造、制造。關于什么是“智能”,較有爭議性。這涉及到其它諸如意識、自我、心靈,包括無意識的精神等問題。人唯一了解的智能是人本身的智能,這是普遍認同的觀點。但是我們對我們自身智能的理解都非常有限,對構成人的智能必要元素的了解也很有限,所以就很難定義什么是“人工”制造的“智能”了。因此人工智能的研究往往涉及對人智能本身的研究。其它關于動物或其它人造系統的智能也普遍被認為是人工智能相關的研究課題。

       人工智能領域的研究主要包括機器人、大數據、語言識別、圖像識別、自然語言處理、自動規劃、游戲和專家系統等。人工智能在業界有大量應用,在人們的日常生活中,無線支付、媒體、家電、手機等也開始大量使用AI系統。

       人工智能一方面給人們帶來便利,另一方面也帶來風險、問題甚至危害,例如對人類尊嚴和權利的踐踏、對隱私權的侵犯、對公民的監控等。如何讓AI的行為符合倫理道德規范,且讓AI的使用合乎倫理道德,這是當前尤其迫切需要積極解決的問題。

       人工智能引發的倫理問題重大,將有一系列文章來做探討和論述。本文先從人工智能原則和倫理法則談起。一、人工智能原則/法則人工智能(AI)的迅猛發展與應用對社會對倫理思想帶來了挑戰、威脅、沖擊和反思。2017年1月在美國加州舉行了“阿西洛馬會議”研討有原則的人工智能,該會議聚集了學術界和業界的一群出色的人工智能研究人員以及一些經濟學、法律、倫理學和哲學領域的思想領袖,會議形成了稱為“阿洛西馬人工智能原則”(Asilomar AI Principles)的人工智能原則,呼吁全世界在發展人工智能的時候嚴格遵守原則,共同保障人類未來的利益和安全。已有1273名人工智能/機器人(AI / Robotics)研究人員和2541名其他人(包括霍金)簽署。(對倫理學領域來說人工智能和機器人兩個概念的相近互通,因此下文中不做特別區分)

       2015年1月生命的未來研究院(Future of life institute)便已通過公開信(Research Priorities for Robust and Beneficail Artificail Intelligence: an Open letter),倡導穩健型和有益性的人工智能,提出要保障人工智能對社會的有益性( delivering AI that is beneficial to society )。

       早在實體機器人出現之前,科幻小說家阿西莫夫便已提出著名的“機器人三大法則”(Three Laws of Robotics)。機器人三大法則第一法則:機器人不得傷害人,或看到人受到傷害而袖手旁觀(A robot may not injure a human being or, through inaction, allow a human being to come to harm);第二法則:在不違反第一定律的前提下,機器人必須絕對服從人類給與的任何命令(A robot must obey the orders given it by human beings except where such orders would conflict with the First Law);第三法則:在不違反第一定律和第二定律的前提下,機器人必須盡力保護它自己(A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws)。之后他又在三法則之前添加了第零法則:機器人不得傷害整體人類,或坐視整體人類受到傷害(A robot may not harm humanity, or, by inaction, allow humanity to come to harm)。

       這些原則、有益性保障和法則都表達了防止人工智能/機器人對人造成傷害,保障人工智能對社會有益性的一些先見卓識。三大法則中特別強調的是機器人不得傷害單個的人,也不得傷害人類。由這些出色的人工智能專家和一些經濟學、法學、倫理學和哲學領域的思想領袖提出的阿洛西馬人工智能原則有較好的實踐指導性。二、亞馬遜丑聞亞馬遜的工人福利是一個經常引起爭議的問題。曾有記者臥底進入亞馬遜工廠進行調查,力圖呈現亞馬遜倉庫工人的真實現狀。臥底記者詹姆斯(James Bloodworth)他在文章中透露,亞馬遜工人會受到嚴格的監管。有的工人因為擔心上廁所花費過多時間而被處分,所以選擇在瓶子里解決自己的生理需求——尿在瓶子里。

       由亞馬遜員工和組織社區成員組成的近 4000 名請愿簽名者提交的亞馬遜倉庫報告。報告顯示,74% 的員工因為害怕完不成既定目標被警告,從而避免使用廁所;而在這樣的情況下,亞馬遜仍然每隔幾個月就增加一次員工的目標值(績效);在亞馬遜工作以來,有 55% 的員工患有抑郁癥;57% 的人在成為亞馬遜員工后變得“更加焦慮”,81% 的亞馬遜員工表示不會再申請亞馬遜的工作。

       為什么員工背負著如此大的壓力?這些倉庫工人連稍稍“摸魚”(time off task)都不行,一定要犧牲上廁所時間來完成工作嗎?

       美國科技媒體The Verge 近日獲得的一份文件或許解釋了緣由。“亞馬遜的AI系統會跟蹤每一個員工的生產率。并且針對質量或生產率會自動向員工發出警告或終止,而這一切甚至無需主管的輸入。”這個AI系統甚至可以追蹤員工的“摸魚”時間(time off task),亞馬遜將其縮寫為 TOT。如果員工在掃描包裹的過程中休息“太久”,系統會自動生成警告,警告到達一定次數,員工可能會被AI直接解雇。一位叫作彼得伯勒(Peterborough)的亞馬遜員工就曾對媒體表示“休息時間太緊了,當你走路去拿飲料的時候,你連上廁所的時間都沒有,更不用說坐下了。如果你遲到 2 分鐘,你就會受到濫用休息(break abuse)的警告提醒。如果你遲到了 5 分鐘,你甚至會被解雇。”

       批評者對這種監管機制大為不滿。他們認為亞馬遜應該將員工視為人類,而不是一個可以不間斷工作 10 個小時的工作機器人。“我們從工人那里不斷聽到的一件事是,他們實際上被當作機器人對待,因為他們受到這些自動化系統的監視和監督。它們被機器人所監控。”

       針對外界的批評和員工的罷工活動,亞馬遜的回應依然十分官方:亞馬遜第一天開始就為員工提供了具有競爭性的薪酬和福利。

       這樣,倉庫員工被壓迫的原因也就顯出:缺乏道德性的CEO甚不道德的使用了很不符合道德規范的AI系統監控員工。

       在這里機器不僅可以取代人類勞動,甚至機器可以自己決定開除人類,這種科幻小說里才有的場面著實震驚了美國企業界。人被當作機器對待,這也是令工人們尤其憤怒之處。對這些可以采用阿西洛馬AI原則較詳細地分析指出亞馬遜公司在這里存在的社會倫理和法律的問題。三、從阿西洛馬AI原則看亞馬遜丑聞l 阿西洛馬第11條AI原則

       Human Values: AI systems should be designed and operated so as to be compatible with ideals of human dignity, rights, freedoms, and cultural diversity.

          人類價值觀:人工智能系統應該被設計和操作,以使其和人類尊嚴、權利、自由和文化多樣性的理想相一致。

      

       而亞馬遜CEO貝佐斯竟然讓機器去管理人,讓機器警告和開除人。讓一只狗有權去管理人,去開除人,這是將人置于狗之下,是對人類尊嚴侮辱與侵犯。讓機器有權去管理人,去開除人,這是將人置于機器之下,是對人類尊嚴侮辱與侵犯,是對人格的侮辱。對人格侮辱,對人類尊嚴侮辱,這如何不令人憤慨和譴責呢?

      

       l 阿西洛馬第10條AI原則

       Value Alignment: Highly autonomous AI systems should be designed so that their goals and behaviors can be assured to align with human values throughout their operation.

       價值歸屬:高度自主的人工智能系統的設計,應該確保它們的目標和行為在整個運行中與人類的價值觀相一致。

       亞馬遜所設計使用AI,對讓機器人去管理人,去開除人,去監督監控人。這是將人當作機器來對待,違背了人類的價值觀。這也是讓員工們感到尤其憤怒之處。

      

       l 阿西洛馬第9條AI原則

       Responsibility: Designers and builders of advanced AI systems are stakeholders in the moral implications of their use, misuse, and actions, with a responsibility and opportunity to shape those implications.  

         責任:高級人工智能系統的設計者和建造者,是人工智能使用、誤用和行為所產生的道德影響的參與者,有責任和機會去塑造那些道德影響。

      

       亞馬遜AI丑聞中,不只是亞馬遜CEO貝佐斯有責任,AI的設計者也有一定的責任。作者注意到亞馬遜僅有一位在兼職的大學教授簽署了阿洛西馬AI原則,若該亞馬遜AI設計團隊認可并簽署了阿洛西馬AI原則,那就不該有這樣違背人類價值觀、冒犯侮辱人類尊嚴、侮辱人格的AI出來。

      

       l 阿西洛馬第2條AI原則

       Research Funding: Investments in AI should be accompanied by funding for research on ensuring its beneficial use, including thorny questions in computer science, economics, law, ethics, and social studies, such as:  

       研究經費:投資人工智能時,應資助那些確保它的有益使用的研究,包括計算機科學、經濟學、法學、倫理學以及社會研究中的棘手問題,比如:

      

    How can we update our legal systems to be more fair and efficient,(點擊此處閱讀下一頁)

        進入專題: 人工智能   科學   倫理  

    本文責編:wuyukun
    發信站:愛思想(http://www.gz775.com),欄目:天益學術 > 哲學 > 倫理學
    本文鏈接:http://www.gz775.com/data/117541.html
    文章來源:作者授權愛思想發布,轉載請注明出處(http://www.gz775.com)。

    0 推薦

    在方框中輸入電子郵件地址,多個郵件之間用半角逗號(,)分隔。

    愛思想(aisixiang.com)網站為公益純學術網站,旨在推動學術繁榮、塑造社會精神。
    凡本網首發及經作者授權但非首發的所有作品,版權歸作者本人所有。網絡轉載請注明作者、出處并保持完整,紙媒轉載請經本網或作者本人書面授權。
    凡本網注明“來源:XXX(非愛思想網)”的作品,均轉載自其它媒體,轉載目的在于分享信息、助推思想傳播,并不代表本網贊同其觀點和對其真實性負責。若作者或版權人不愿被使用,請來函指出,本網即予改正。
    Powered by aisixiang.com Copyright © 2019 by aisixiang.com All Rights Reserved 愛思想 京ICP備12007865號 京公網安備11010602120014號.
    易康網
    国产自拍