TOP
0
0
三民出版.新書搶先報|最速、最優惠的新鮮貨報給你知!
二十一世紀機器人新律:如何打造有AI參與的理想社會?
滿額折

二十一世紀機器人新律:如何打造有AI參與的理想社會?

商品資訊

定價
:NT$ 550 元
優惠價
90495
庫存:2
下單可得紅利積點:14 點
商品簡介
作者簡介
名人/編輯推薦
目次
書摘/試閱
相關商品

商品簡介

美國出版商協會PROSE獎「法律和犯罪學」決選

向艾西莫夫「機器人定律」致敬,為了二十一世紀而生的「AI機器人新律」
人類如何在AI時代,避免失去自身利益?

● 無人機因為打擊精準,運用在戰場上比較人道?
● 醫療AI因為被輸入大量資料,比醫師的診斷還可靠?
●當AI客服已經可以發出「嗯」「啊」幾可亂真的回應,
可以解決最單純的餐廳訂位服務,
為什麼會有倫理的問題?

如果我們對AI的想像力只及於將AI自動化當作降低人力成本、替代人類勞動力的方法,我們不只被毫無創意的「成本病」綁架,還失去與AI一起邁向理想社會的契機。是時候該討論如何更積極介入由AI打造的新社會了,而不只是讓演算法黑箱作業。也不能只是批評演算法,而是要在政策、立法和倫理議題上,有具體的原則和作法,建立課責制度,當AI產品違反社會秩序時,我們有完善的制度可以追究責任。

作者巴斯夸利不只在學術領域卓然有成,更在政府部門擔任諮詢委員,提供建議供現下邁向AI社會的指引。於書中,他先向艾西莫夫「機器人定律」致敬,再提出「機器人新律」,作為我們與AI互動的準則。

第一、機器人系統與人工智慧應為補充與輔助專業人士的角色,而非取代專業人士的工作。
第二、機器人系統與AI不應該假冒人性。
第三、機器人系統與AI不得強化零和軍備競賽。
第四、機器人系統與AI必須隨時標示其創造者、控制者及擁有者的身分。

作者從健康照護、教育學習、新聞輿論、法律判決、信用評價、軍事國防等方面,示範如何將這四個原則應用在這些領域。這四個原則背後所揭示的是AI與人類社會的理想關係,不僅能揭露不遵守將帶來的惡果,更能使我們在確認大方向之後,維持人類的尊嚴,保衛我們的民主成果。

作者簡介

法蘭克.巴斯夸利Frank Pasquale

現為美國布魯克林法學院教授,專長領域為人工智慧法律、資訊法等。

畢業於美國耶魯大學、英國牛津大學。其研究領域著重於健康照護、隱私、資訊、網路、演算法之法律與政策、數位科技法制以及智慧財產權法等,學術成果斐然。二○一五年出版《黑箱社會》(The Black Box Society: The Secret Algorithms That Control Money and Information)一書,針對當代演算法應用所形成的黑箱社會及其運作、影響進行深入討論,並試圖提出解決方法。該書不但獲選為當年度最受矚目書籍、最佳學術論著外,現已翻譯為中、韓、法等超過七種不同語言。

同時,巴斯夸利目前為美國國家人工智慧諮詢委員會(U.S. National Artificial Intelligence Advisory Committee,NAIAC)成員,為美國總統和商務部人工智慧倡議辦公室(National AI Initiative Office,NAIIO)提供建議。過去他亦曾為各國政府及民間單位提供醫療衛生、網際網路和金融相關領域專業諮詢,包括美國衛生及公共服務部(HHS)、美國眾議院「司法、能源與商業委員會」(U.S. House Judiciary and Energy & Commerce Committees)、美國參議院銀行委員會(Senate Banking Committee)、美國聯邦貿易委員會(FTC)、歐盟執委會各署(directorates-general of the European Commission)及加拿大和英國官員等十數個政府或民間單位。

巴斯夸利不僅專精於學術研究,更將複雜的法律政策論述,透過公開演講、著述以及公共服務傳遞於社會公眾,以因應近來人工智慧等資訊技術持續蓬勃發展所可能產生的法律、倫理及社會議題或困境,提出解方。

譯者簡介
李姿儀

現為國立台灣科技大學專利研究所助理教授。

美國伊利諾州大學芝加哥分校法律博士(JD)、加州大學柏克萊法學院法學碩士(LLM)、台灣大學地理學博士(PhD)、英國華威大學文化政策碩士(MA)。國際隱私權專家協會(IAPP)美國資訊隱私專業認證(CIPP/US)。曾擔任美國聯邦法院伊利諾州北區分院法院助理、美國納粹大屠殺藝術追索計畫公益法律服務,及台灣文化部助理研究員。"

名人/編輯推薦

作者勾勒出對於人類專業智能在人工智慧潮流下應該扮演的角色,嘗試為儼然已經到來的演算法社會,奠定「人之所以為人」的理論基礎。這個「以人為本」的人工智慧原則,也促使像我這樣關心憲法議題的資訊法學者思考,民主憲政的運作所遭遇的另一波嚴峻挑戰。——劉靜怡(台大國家發展研究所教授)

作者使我們思考:在政治與經濟決策中,類似的多目標最佳化問題履見不鮮。這些問題不同於單目標問題,往往沒有最佳的答案,而必須經由社會成員共同討論形成共識……對這些問題,機器人在數學上無法求得最佳解,同時也不應該為社會做決定。如何為機器人訂立律法,以避免機器人對多目標最佳化問題得出不合理的近似解,是我們必須謹慎思考的問題。——王柏堯(中央研究院資訊科學研究所研究員)

艾西莫夫的「機器人三律法」與巴斯夸利的「機器人新律法」,雖然都以機器人的律法為名,但後者更直截了當地點出,真正該受規範的其實並非機器人或人工智慧系統本身,而是開發「機器人」與「AI」、賦予其功能也給予其限制、並加以利用的真實人類。唯有瞭解此一關鍵,人類才可能駕馭當代AI 所應許的美好未來。巴斯夸利的「機器人新律法」則為人類找到一條通抵應許之地的可能路徑。——邱文聰,中央研究院法律學研究所研究員兼中央研究院智財技轉處處長

我們正朝著一個機器統治、人被削弱及被排斥的未來前進。作者透過這本書證明這種AI未來既不是無法避免,也不令人嚮往;相反地,他為我們建構了迫切需要的替代方案,擘劃了科技、公共政策和法律所需的原則和實踐方向,帶領我們走上新的人性數位化未來的道路。無論你是公民還是立法者,我們的未來都需依靠本書的指引。——祖博夫(Shoshana Zuboff),《監控資本主義時代》作者

面對人工智慧在我們社會中所造成的不均與不公平的後果,本書作者是全球最重要的意見領袖之一。在這本書中,他展示了我們可以如何保護勞工,並創造一個無害、無歧視性技術的世界。每位政策制定者都應該好好閱讀這本書,並尋求其洞見。——諾布爾(Safiya Noble),《壓迫的演算法》(Algorithms of Oppression)作者

在作者大膽而人性化的願景中,機器人和人工智慧科技讓我們的生活變得更美好,它與人合作並且為人服務,而不是模仿或取代人類;它促進社會合作而不是無情的競爭;它改善職業實踐而不是瓦解人類的職業。作者從健康、金融、教育、警務和社交媒體的例子,說明他的「機器人新律」將如何讓我們重新思考經濟、知識的利用以及生活方式。——巴金(Jack M. Balkin),耶魯大學法學院「資訊社會計畫」中心主任

作者不僅是當今世上最前瞻的法律學者之一,還是最善良人道的法律學者之一。他這本新書回應了我們迫切的需求,為即將到來的人工智慧和機器人世界制定一個簡單而明智的治理框架──一個科技為人性服務的框架,而不是反其道而行。——福洛荷(Rana Foroohar),《切莫為惡:科技巨頭如何背叛創建初衷和人民》(Don’t Be Evil)作者

引人入勝、極富洞見且不偏頗,本書為我們揭示了日益自動化的時代下所面臨的艱難選擇。作者凸顯了機器人技術和人工智慧背後複雜的誘因與權力的失衡,並提出有力與迫切的論證,呼籲以更民主與公平的方式來監管這個領域。——克勞馥(Kate Crawford),紐約大學AI Now研究所(AI Now Institute)共同創辦人

【推薦序之一】
人類社會的演算法:我們將往何處去?

劉靜怡教授 (台大國家發展研究所)

本書作者巴斯夸利是我相熟多年的哈佛學弟和學術界好友,除了長年以來在歐美法學界相當活躍之外,目前更是美國商務部「國家人工智慧諮詢委員會」(National Artificial Intelligence Advisory Committee,簡稱NAIAC)這個法定委員會中,絕無僅有的兩位具法律學者背景的諮詢委員之一(另一位是任教於史丹佛大學的Daniel Ho教授)。

這個委員會是根據《國家人工智慧創新法案》(the National AI Initiative Act of 2020)此一聯邦法律的授權二○二一年秋季正式成立,接著在二○二二年春季確定委員人選而開始運作的。這個委員會的職責,主要是針對人工智慧(AI)相關議題向美國總統及其他聯邦政府機關提供建議,究其目的,不單單是美國想藉此確保其在人工智慧研發上的領導地位而已,也決意在公私部門中推動「可信賴的人工智慧」(responsible AI)此一價值取向濃厚的原則,並且針對人工智慧對勞動力與工作樣貌所帶來的影響預作準備,以及討論人工智慧對個人基本權利所造成的衝擊等等。

對於熟悉作者學術關懷和學術成就者而言,巴斯夸利作為NAIAC首任委員這個在美國人工智慧領域極具象徵意義的重要職位,可謂實至名歸。而對於作者著述來說,本書是其在哈佛大學出版社所出版的第二本專書,其誕生可以說是他學術寫作生涯中極其自然的發展。

就近年來歐美學界關於演算法相關議題的開發耕耘歷史來看,作者的前一本書,也就是同樣由哈佛大學出版社二○一五年所出版的《黑箱社會:控制金錢和信息的數據法則》(簡體中譯名,The Black Box Society: The Secret Algorithms That Control Money and Information)這本書,可以說是具有定錨作用。在該書中,作者以相當細膩的描寫手法說明了各種目的及其運作幽微不清的公私部門資料庫,以及相應之下各種人工智慧演算法的運用,對於政治、教育、財金、商業等領域,帶來了哪些幾乎難以逆轉的負面影響,並且,基於上述觀察,巴斯夸利也從法學者獨有的訓練和視野出發,在該書中提出了不少既具有嚴謹論證特色又堪稱務實的主張和建議。

二○一五年《黑箱社會》書出版至今,在歐美學界各領域均獲得高度重視和廣泛引用,幾乎已是不容否認的事實。例如嗣後在二○一九年出版《監控資本主義時代》(The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power)此一巨著備受矚目的哈佛商學院教授肖莎娜.祖博夫(Shoshanna Zuboff),就曾經明白指出巴斯夸利的論述,對她的思維與寫作產生頗為深遠的影響。

於是,隨著書名,「黑箱社會」廣為人知而逐漸成為資訊及演算法相關議題的主軸之一後,人類社會在人工智慧的潮流下,到底將走向何方,也就自然而然地成為作者接下來難以拒卻的知識探索和寫作之旅。

因此,作者在新冠疫情全球爆發之際於二○二○年所出版的第二本書中,以艾西莫夫(Isaac Asimov)的「機器人定律」為基礎,提出「機器人四大新律」的主張,並且具體而微地以醫療、教育和媒體等領域當成分析和探究對象,說明人工智慧的優劣長短所在,並且進一步從各種AI評分判斷系統、自動武器系統的正反辯論、人工智慧政治經濟學分析、以及以人為本的AI(human-centered AI)等面向,勾勒出作者對於人類專業智能在人工智慧潮流下應該扮演何種角色的看法。以上所述種種,在我讀來,幾乎都可以說是作者延續了前一本書所提出的主張,進而透過旁徵博引和更為深入的論證,嘗試為儼然已經到來的演算法社會,奠定「人之所以為人」的理論基礎。

巴斯夸利可說是個人工智慧樂觀主義者,他認為人類應該有能力延續「維護的文化」而非「破壞的文化」,此種人工智慧文化的內涵,是對人類的輔助與補充,而不是取代人類。雖然,乍看之下,本書在提倡二十一世紀機器人新律之餘,似乎是以人類專業智能在人工智慧社會中如何繼續扮演核心角色為論述主軸。然而,這個以人為本的人工智慧原則,似乎也促使我們思考演算法社會「人之所以為人」的另一個重要面向:當人工智慧相關科技衍生出對人類社會的各種衝擊時,對於像我這樣關心憲法議題的資訊法學者來說,正是民主憲政的運作又遭受另一波嚴峻挑戰的關鍵時刻。

換言之,如果「以人為本」是「我們」「人類」對人工智慧或演算法社會的基本共識,那麼,人類的憲法傳統運作模式,究竟應該以及如何因應演算法社會的「人類基本權利」保障挑戰,以免披著技術決定論與效率外衣的演算法所形塑和支撐的各種有形無形權力,可以巧妙而令人難以察覺地迴避民主監督,導致民主憲政的基本價值在科技創新的口號下遭到淹沒或稀釋。保障人類基本權利或許也是我們在思索作者所期待的由人類治理而不是機器統治的世界是如何可能、如何維護之際,必須齊心合力做好的功課。

最後,要附帶一提的是,在這本書的寫作與誕生過程中,作者曾經受筆者之邀三度來到台灣進行學術訪問,所以,本書絕大部分的內容,曾經在訪台期間多個演講中發表過,作者也就本書內容和台灣人工智慧法律和科技等相關領域多位學者深入討論,這也是本書謝辭中出現多位台灣法律學者名字的背景。然而,更重要的是,如果要說台灣出版這本書中譯本具有任何重要意涵的話,不應該僅止於這本書的台灣連結,而是向來追求科技潮流的台灣社會,應該認真思考這本書所標舉的「以人為本的人工智慧」,其真正價值與啟示所在。

目次

【推薦序一】
人類社會的演算法:我們將往何處去? 劉靜怡 (台大國家發展研究所)

【推薦序二】
人工智慧無法到達的他方 王柏堯(中研院資訊科學研究所)

【推薦序三】 通抵應許之地的律法 邱文聰(中央研究院法律學研究所研究員兼中央研究院智財技轉處處長)


第一章 緒論
以撒.艾西莫夫(Isaac Asimov)的機器人定律/機器人新律/專業精神與專業知能/專業知能(expertise)兩大危機/成本的好處/本書內容架構

第二章 療癒人類
決定何時該尋求醫療照護/AI的核心能力:避免常見錯誤/資料、歧視及健康不平等/不負責任四騎士/誰來訓練「學習型醫療照護系統」?/你的治療應用程式為誰工作?/解放護理人員?還是將護理工作自動化?/機器人照護的政治經濟學/在醫學中保持人味

第三章 超越機器學習者
教育的多重目的/簡單的新自由主義思維/將教育自動化/你的教學機器人究竟為誰工作?/持續注意與關注的缺點/修補或結束教育科技監控/對於機器人幫手,應有更積極的選項/跟什麼比?AI教育科技與低度開發國家/抵抗新行為主義/以人為本的教育

第四章 AI自動化媒體的「異智慧」
當文字可以殺人/大型科技公司的「不在席投資者」 問題/恢復網路媒體的責任/打散網路注意力的工具/正義和包容性的治理不是演算出來的/被遺忘的權利:人性自動化的測試/馴服自動化的公共領域/終極機器人來電者/回歸新聞專業精神/將媒體AI人性化

第五章 由機器評價人類
機器人評價(robotic judgments)的吸引力(和危險)/誤認,就是不尊重/以貌取人:從人臉辨識到人臉分析/當銀行業普惠金融 成為可怕的掠奪性工具/信用評等社會中的內化服從/扭轉局面,轉而占「評價式AI」的上風/生產力vs.權力

第六章 自主的力量
想像一下用機器人進行屠殺/殺手機器人令人不安的案例/殺人機器人與戰爭法/在大國競爭中加碼賭注/施行禁令的障礙/對戰爭機器人負責/讓武力更為昂貴/合作的邏輯/「科技不作為」與軍用AI商業化的內在阻力/合作之路

第七章 反思自動化的政治經濟
從職業訓練到創新治理/從補助到輔助原則/高等教育的本質和工具性/在自動化時代重整稅收政策/從全民基本收入到工作保障/質疑「成本病」/自然而然的經濟轉型/負擔的方法:公共財政的更新/從「更多的AI」到「更好的AI」

第八章 運算能力和人類智慧
自動化的政治、經濟與文化/自我感覺良好是種自欺欺人/最終的顛覆/具像化的心靈與人工資訊處理者/外包人性/藝術、本真性與擬像/勞動的願景/擴大「可說」的範圍/藝術的回應與道德的判斷/自動化「自動化發動者」/共同創造工作的未來

書摘/試閱

緒論(節錄)

基於上述目標,本書將深入探討機器人四大新律。

1. 機器人系統與人工智慧應為補充與輔助專業人士的角色,而非取代專業人士的工作 。

因為科技會造成失業的說法,促使社會大眾開始討論未來的工作。有些專家預測,所有的工作都將因科技的進展而消失;有些專家則指出自動化發展路上的障礙與限制。政策制定者所關心的問題是,對於機器人技術的發展,什麼樣的限制是合理的?而哪些障礙應該再仔細評估和予以移除?例如,切肉機器人的發明,好像頗為合理,但是,托嬰機器人(robotic day care)就讓有些人質疑。對托嬰機器人的擔憂,是一種單純盧德主義式 的反應?還是蘊含著對於人類孩童成長的本質,有其他更深層的反省與思考?再舉個例子,與執照相關的現行法規,是規定分析疾病病理症狀的應用軟體,不得以醫生診斷之名行銷。究竟,這些限制作法究竟是不是好的政策?

本書分析這些案例,並且引進經驗面向與規範面向的論證角度,主張在各領域採用AI時,應該減緩或加速的原因。這裡涉及很多重要因素的考量,尤其會因工作與管轄權面向而異,但是若能發展出一個統一、有組織性的原則,就等於是對人的自我價值,以及對社群治理做出有意義的工作。自動化議題中的人性思維,本書會優先著重在協助勞工職場與勞動專業的創新;這些人性思維會讓機器做危險或細瑣的工作,同時也確保目前做這些工作且未來可能由機器替代的勞工能夠獲得公平的補償,並且有機會轉換到其他社會角色 。

但是,這種持平觀點,卻會同時讓科技愛好者與科技恐懼者不滿。同樣地,強調治理的立場,也會同時得罪反對「干預」勞動市場的一方,以及厭惡有個「專業管理階級」的另一方。各種職業儼然形成經濟種姓制度,讓某些工作者相對於其他工作者享有不公的特權,這樣說來厭惡專業管理階級者所抱持的懷疑,的確有其道理。然而,想要一方面促成各種職業追求更崇高的目標,同時鬆動職業的階層化,還是有可能的。

職業專業化的核心價值,在於賦予工作者在生產組織中能保有一些話語權,以此來交換組織加諸在他們身上的專業倫理義務,以促進公共善 。由於高等教育與研究的推進,無論在大學的學門分科或在實務場域的辦公室現場,各種職業已經培養出「分散式專業知能」(distributed expertise),不同的專業知識分散在不同的多數人身上,使組織內各階層均有相關專業人員,藉此也減緩了專業技術官僚與一般文官階級之間的緊張關係。我們不應該贊同破壞式創新者的主張──也就是廢除或禁止職業分類;相反地,想要發展人性的機器自動化,必須強化既有的專業社群,也要同時創造新的專業能力。

什麼是「專業」?妥適的定義應該是寬泛的,而且應包含許多加入工會的勞工,特別是那些保護涉及危險技術的工會組織。例如,教師透過工會組織提出專業意見,反對透過自動化系統過度「訓練與測驗」(drilling and testing)的政策,除了保護教師工作權益之外,在很多情況下也都是同時提升學生利益。當前各種工會已逐漸專業化,讓工會會員更有能力與權力保護他們所服務的對象(例如老師與其服務的學生),因此工會也應該在AI革命中扮演重要角色。

有時候很難證明「以人為本的處理程序」會比「自動化程序」更好;粗糙的金錢衡量指標(crude monetary metrics)也能產出複雜的關鍵標準。例如,在「暴力自然語言處理」(brute-force natural language processing)的基礎上,機器學習的程式可能很快就能預測某一本書是否會比另一本書熱銷;從純粹經濟觀點來看,這種程式可能比真人編輯或者老闆挑選文稿或劇本來得更有效率,然而,創意產業工作者可能會站出來捍衛自己的鑑賞能力。市場上有些作品可能不是普羅大眾喜歡但卻有存在必要性的作品,此時,真人編輯在出版、判斷、挑選與行銷方面,就扮演著極為重要的角色。同樣的邏輯,也適用於新聞記者這個專業,即使內容自動產生器可以生產出大量的文字著作,然而,這種數量上空洞的勝利,卻無法取代一篇真實、誠摯、又有深度人性觀點的報導。因此,大學中的專業學院,其重要任務之一,即是應該闡明並重新檢視媒體、法律、醫學與許多其他領域的專業標準,避免採用那些為了自動化而過度簡化的專業標準。

即使是在物流、清潔、農業和礦業等等那些看起來最有自動化需求的領域,勞工也將在AI與機器人技術的長期過渡過程當中,扮演關鍵角色。蒐集或創建AI所需的資料,對很多人或領域來說,都是艱鉅的任務,而法規可以使這個工作任務產生更多意義與自主性。例如,相較美國對卡車司機三六〇度的監控和控制,歐洲的司機可依據歐盟隱私相關法規抵抗這種美國卡車司機所受到的壓榨 。但要說明的是,提出歐洲的作法,並不表示主張危險的職業不須受到監督。安裝監測感應器可能可以發現駕駛的反射本能所導致的問題,然而,以安全漏洞爲目標的感應器偵測行為,和使用影音持續記錄駕駛所有活動、進行長時間的監控,前者是偵測,後者則是監控,這兩者之間仍有很大的差異。在缺乏人性尊嚴的監控(surveillance),以及合理且有限的監測(monitoring)兩者之間取得恰當的平衡,對絕大多數領域來說,都是至關重要。

此外,我們也可以在技術科技的轉型過程中把人類設計進去,亦即把人類放在這個轉型的藍圖中,或至少讓人類掌有選擇權。例如,豐田汽車公司已經用機器涉入程度的高低,來推廣他們的汽車;從私人司機模式(需要真人司機極少的監督),到保護者模式(當人類操作汽車時,汽車電腦系統協助避免意外發生) 。又如,飛機的自動駕駛功能,已有數十年歷史,但是商用客機仍然要求至少有兩位真人飛行員;即使是偶爾才飛行的旅客也會同意,自動化飛行駕駛無法馬上取代真人飛行駕駛 。

交通工具是最容易應用AI的範例之一,一旦設定目的地,旅行的重點就確定下來,不再有爭議。其他服務領域則不同,客人或客戶的想法,可能隨時會改變。一個班級的學生,可能在春光明媚的日子裡,太過煩躁興奮而無法反覆練習九九乘法表;某位社交名流可能在自己挑選了客廳裝飾掛畫之後,卻又告訴他的室內設計師,擔心太過俗艷;健身教練可能會猶豫與擔憂她的客戶在跑步機上跑太久。在這些案例中,溝通是關鍵,而人際互動中的耐心、謹慎與洞察力,也同樣是關鍵 。

假如幾千個健身教練都配置Google眼鏡,並且記錄他們工作過程中所有的遭遇,那麼,因此蒐集到的各種鬼臉、白眼、受傷事件或成就感的表情與行為資料,也許可以匯集成不錯的資料庫,而這資料庫則能協助健身教練在面對抑鬱寡歡的健身客人時,決定最佳的人際互動反應。不過,即使我們開始想像如何建構這種資料庫(什麼樣的動作表情,以及到什麼程度,可以被標示為好的或壞的結果),也必須理解到,未來建構與維護優質AI與機器人時,人類將扮演非常重要的角色。人工智慧必須保留人工,因為它永遠是從人類協作中所建構出來的產物 。再者,近年AI科技的多數進展,都是專門用來執行工作中的特定任務,而不是承擔整個工作或社會角色 。

許多科技讓工作更有生產力,更有意義,或是二者兼具;正如義大利政府所設立的「數位義大利」機關(Agency for Digital Italy)所指出的,「科技通常不會完全取代專業人士,只會替代某些特定活動」 。當代的法律系學生可能很難相信,網際網路世代之前的律師,必須爬梳多少古老冷門的文獻,才能評估某個案件的有效性。當前的法律研究軟體把案件評估過程變得更為容易,而且拓展了資料取得的便利程度,讓我們能取得更多的資料,以支持我們主張的論點;但是,這並不是把事情簡單化,反而可能讓這些工作變得更加複雜 。對於律師來說,可以花更少時間埋首在搜尋案件相關的研究文獻上,換取更多時間用於整合案件這類花費腦力的工作上,可以說是非常正向的好事。至於在其他領域,自動化也可為其工作者帶來類似的高效率,而非只是替代大量勞力而已。以上說的這些,不只是一種觀察而已,也可以是適當的政策目標 。

2. 機器人系統與AI不應該假冒人性。

從艾西莫夫的時代,到炫麗的美國電視劇影集《西方極樂園》(Westworld),人們對於人形機器人前景的想像,既迷幻又嚇人,也總是挑逗人心。有一部分鑽研機器人的研究者渴望找到完美比例的金屬骨幹及塑膠皮膚,以打破「恐怖谷」(uncanny valley)理論──也就是看到幾乎是人類但又不完全是人類的人形機器人,可能產生的厭惡噁心感。機器學習已經能成功駕馭產製「假人」照片的技術水準,而讓人信以為真的合成聲音,也可能很快地就能普遍化 。當工程師們努力微調修正這些演算法,以追求以假亂真的完美時,我們都忘了提問一個更重要的問題:我們是否想要生活在一個根本無法知道眼前所面對的是人類還是機器人的世界裡?

人性化的科技,與假冒獨特的人類特質,是完全不同的兩件事,而且,兩者差異很大。歐洲重要的倫理學家主張「當人們實際上面對的是演算法或是智慧機器時,法律應該對這些誤導人們以為自己是在跟真人打交道的技術,有所限制。」 立法者也開始針對各種線上情境,制定有關「機器人揭露」(bot disclosure)的法律。

儘管此等倫理共識越來越普及,不少AI的次領域──例如分析與模擬人類情緒的情感運算技術(affective computing)──仍致力於達到讓人無法辦別真人或機器的AI技術層次。這些研究計畫也許會以創造出有如史蒂芬史匹柏《A.I.》電影裡面那種難以辨別的先進機器人為最高目標,而「那樣的人形機器人應該如何被設計?」,也是倫理學家們長期以來辯論的議題;但是,如果那種令人難以分辨真假的機器人,是根本自始至終不應該被創造出來的呢?

您曾經瀏覽過的商品

購物須知

為了保護您的權益,「三民網路書店」提供會員七日商品鑑賞期(收到商品為起始日)。

若要辦理退貨,請在商品鑑賞期內寄回,且商品必須是全新狀態與完整包裝(商品、附件、發票、隨貨贈品等)否則恕不接受退貨。

優惠價:90 495
庫存:2

暢銷榜

客服中心

收藏

會員專區