青青青久草,四虎永久在线精品,二区免费视频,一级毛片在线直接观看,黄网在线免费观看,美女露全身永久免费网站,色婷婷六月桃花综合影院

科技世代與人類未來丨人工智能時代的倫理智慧

科技世代與人類未來丨人工智能時代的倫理智慧

科技世代與人類未來丨面對技術拒絕,一笑而過? 【點擊圖片查看詳情】

【論壇第7期話題】人工智能時代的倫理智慧
“科技世代與人類未來”論壇第七期首次嘗試書評形式推出,以段偉文研究員的《信息文明的倫理基礎》新書為對象展開分析評論。首先邀請中國社會科學院的段偉文研究員對此書做出介紹,然后由中國人民大學的劉永謀教授、上海交通大學的閆宏秀教授和復旦大學的楊慶峰教授做出評論,以北南聯袂、京滬對話的方式從不同角度展開探討。劉永謀教授從信息時代的人的命運和行動的“無知”特征入手,分析了信息時代的人與技術纏斗的必然性;閆宏秀教授指出對話的過程是厘清我們自己是誰、應該是誰的問題,是在技術之力與倫理??彪p驅下找尋自己的過程;楊慶峰教授提出這本書顯示了以柔克剛的核心態(tài)度,呈現了以信息反射弧為基本概念的倫理思考理路。這一思考本質上產生了奇特的繞指柔的效果,借此來對抗技術理性。


段偉文《信息文明的倫理基礎》

段偉文《信息文明的倫理基礎》

人工智能時代的倫理智慧
段偉文(中國社會科學院)
1、我是誰:加速變遷科技世代的“弱”者
我們每一個人在短短的二十年間經歷了三個時代,至于后面會經歷什么時代,我們不可預知。有一種所謂的加速主義說法,用于刻畫當下所處的人類世,也就是科技世代。什么是科技世代?即在近一兩百年來,人類的行動和行為,對地球有一種改變的力量,正在不可逆地改變地球的地質面貌,使人類進入加速變遷的軌道。
在科技這樣強大的力量面前,我們每個人其實是一個弱者。正如我們所知,人和技術是相伴而生的,每一代人都跟他所遭遇的技術有某種融合的方式。
每個人都生活在不同的技術空間之中,隨著當代技術的加速變遷,人們要做一個抉擇就是如何面對科技創(chuàng)新,尤其是以硅谷為源頭的科技創(chuàng)新,它有一個很重要的特點是顛覆性或突破性。
創(chuàng)新使得世界不再是過往的世界,我們也不再是從前的我們。那么如何使人性依然可以規(guī)定技術前行的方向,而不是臣服于強大的技術變遷的邏輯?從小我們就說要努力學習,好趕上技術的步伐。但你有沒有發(fā)現,現在每一個人都是過時的,甚至我們生下來都是過時的。在這樣一個情況下我們該怎么辦?
在很多年前,麥克盧漢說過這樣一句話:先是我們創(chuàng)造工具,然后是工具創(chuàng)造我們。
信息時代是一場前所未有的社會倫理試驗,在信息網絡空間中,人們從現實世界中的物理自我嬗變?yōu)閿底肿晕?,迫使我們不得不直面一系列全新的價值挑戰(zhàn),探尋人工智能時代的倫理智慧。
比如,在沒有互聯網之前,你到哪兒去了、你怎么樣,那一定是要有人碰見你,才會知道;但現在你要是說你要到哪兒去,有人會跟你共享位置……
2、智能時代的7種生存武器
智能時代的七種生存武器是什么?
第一種武器,信息網絡空間與注意力生態(tài)重構
什么叫注意力生態(tài)重構?在古老的社會時代,每天開門七件事,柴米油鹽醬醋茶?,F在,每天都面對著不同的一千零一扇門。
我們正處于分心成癮的時代,各種信息流隨時影響著我們的注意力。在信息網絡空間,我們的專注度在消解,注意力也在消散。諾貝爾經濟學獎獲得者赫伯特·西蒙曾經指出:隨著信息的發(fā)展,有價值的不再是信息,而是注意力。
比如現在搜索信息都搜得很好的,一會兒是薛寶釵、林黛玉……突然有一天在網上誰搜不到了,我會想這個人為什么搜不到了?他是不是出了什么問題。所以就是這樣,好像是你想什么就是什么,但是實際上不是你想什么就是什么,而胡思亂想多了,最后你的注意力就有限了。
為什么網絡有那么大的吸引力,為什么它能夠讓我們分心,從某種角度來講,網絡上的一些行為,你仔細想一想,點贊,鼠標點擊,或者是打游戲的時候一些手指這樣戥,這實際上是非常符合自閉癥兒童的一個行為習慣。
自閉癥兒童為什么對外在的世界不感興趣,是因為他自己找到了一套癡迷的行為模式,而且在這種行為模式里邊他能夠得到一種獎勵,這樣的話他的大腦神經就會分泌一種多巴胺,產生一種愉快的體驗。
網絡空間的注意力生態(tài)問題最重要的一點是會在一定程度上導致所謂的信息時代的自閉癥。那么我們就要通過重構注意力生態(tài),去克服自閉癥。
第二種武器,數字癡迷與虛擬生活的自我倫理
數字癡迷就像數字野火一樣的在那兒燃燒。什么叫野火一樣燃燒?你要讓小孩不玩游戲,那完全就是野火燒不盡、春風吹又生,為什么?因為他的思維被改變了。
從科學上來講,打游戲會不會讓你變傻,或者說會不會讓你注意力成問題,還沒有形成有依據的科學定論。但是,現在有些游戲,它確實是按照你成癮的樣子設計,想辦法讓你成癮。
好比比爾蓋茨在未來之路上面講過的數據緊身衣。但我講的數據緊身衣是智能手機、智能手環(huán)、可穿戴設備,是你的智能緊身衣。根據這些設備所呈現的數據——每天走多少步等等,這就是所謂的數據緊身衣。從某種角度講,把你的行為特征,包括各種數據采集起來,可以更好地開發(fā)人性化產品。
這里有一個很重要的問題,數字野火,它為什么會燒到你家的小孩呢?因為在孩子半歲或者兩個月的時候,你給他接觸這些電子產品,有沒有恰當的控制方法,就產生了從小草根部就開始燃燒的“野火”。
你和你的孩子在數字時代能不能夠自控,那就要用到自我倫理。什么叫自我倫理?通過自己行為的主動的調節(jié),讓我的生活更加幸福。而你現在的幸福,你現在的快樂,不應該影響到你將來的快樂。如果你現在快樂過度,那么將來你可能覺得別的東西沒意思。這將會讓你成為一個信息世界的自閉癥兒童。
在這里很重要的一點就是要抓住可以自控的窗口期?,F在有很多網絡成癮、游戲成癮,那么這些情況基本上來講它不是單純地由網絡造成的,很大程度上是由你的社會地位、心理、家庭關系等各方面造成的。
所以說這樣一些人中你可能需要給他更多的愛,更多的關心,但是最好是在他沉迷于網絡成癮之前,或者處于自控窗口期的時候,你去教育他,那時是效率更高。一旦他進到那個里面去了以后,就比較難了,這是一個。
再說數字癡迷,或者說這樣一種網絡成癮、游戲成癮,它是服強不服弱。如果你很有錢,家里條件很好,你的自由轉圜的空間比較大,那么你遇到的矛盾就少,相對來說你回過來或走出來的可能性比較大。因為根據癡迷的程度可分為沉迷和癡迷兩種,網絡的沉迷、游戲的沉迷,大部分人都會有一個沉迷的階段,但是有極少數人可能會有沉溺階段。但相關研究到現在不論是心理學還是神經科學上并沒有定論。
第三種武器,差異革命與解析社會的能動構建
當你看到微信推送廣告,那為什么給他推的就是奔馳寶馬的廣告,給你推的就是摩拜單車的廣告?實際上是因為他把你的一些個人行為被記錄下來,然后進行一種自動化的分析。這樣一種自動化的分析就像17世紀,笛卡爾提出解析幾何這一精確分析運動軌跡的方法一樣,數據智能可以對人的行為軌跡加以記錄和解析,并實施相應的引導和調控?,F在各種數據驅動的智能化平臺,就是用數據分析的工具,來解析每一個人的數據記錄,然后對他進行一種相應的引導。
在這樣一個情況下,根據這些數據就有了大量的數據畫像。數據畫像是什么?就是標簽。你如到過什么地方,跟什么人在一起吃過飯等等。這些內容,它相當于是一個非常復雜的數據集合,數據的集合的每一條,它都可以根據這個把你歸到哪一類,然后對你進行精細的、精確的測度,這樣測度完了以后,人和人之間的差別就出來了。
這些對數據的評價,也就是對人的評價,由此造成的差異,有可能會導致一些偏見,會造成歧視或不平等。比如你要去應聘,如果你的親戚和朋友里面在某個公司工作,那么很有可能它的人事部門的算法會把你對公司的了解程度之類的分數加得比較高,或者直接給你一個加分,而另外的人就沒有這樣一個加分。#p#分頁標題#e#
通過數據來分析或解析每一個人,是福還是禍?對于個體而言,很重要的一點就是,每個人要把你想到的技術濫用的壞處說出來。對于文明碼之類的行為評分體系,應該意識到:不是人的所有的行為都能量化;不同的量之間是不能夠隨便相加的。因此,用數據評分的辦法來評價人的某方面的行為要注意它的適用性和限度,特別是要注意不能簡單地將各種行為評分加起來作為區(qū)分好人壞人的工具,這其中的權重和數據選擇有太多的主觀因素,容易造成偏見和歧視,其實質是數字官僚主義。
第四種武器:基于行動者網絡分析的倫理審計
行動者網絡理論是由法國社會學家拉圖爾提出的一個科技社會分析理論,大意是要理解科技的實質,就要追蹤科技活動所涉及的人與非人(包括人工物、制度、文化等),將它們視為各種相互影響和共同構建科技的行動者,通過對行動者的利益、意圖、價值、行為等的分析,動態(tài)地剖析科技發(fā)展的過程、機制與后果。舉一個簡單的例子,去年以來有很多地方都在用人臉識別技術,很多大學和單位的門衛(wèi)也在用人臉識別。那我們想想一下,這些人臉識別的場景和高鐵站、飛機站之類的場景實際上是不一樣的,進而思考這些應用有沒有必要。同時,還可以看到,由于今年以來疫情防控的需要,在很大程度上強化了這種需求。
此外還有很多問題也可以通過行動者網絡展開進一步的分析。如人臉識別在不同場景的應用,對哪些人有利,對哪些人不利,對哪些人它可能沒有明顯的好處,也談不上不利?實際上我們都知道,人臉識別從準確度來講,對成年人來說比較準確,相對來說差錯率比較低;對于小孩的差錯率可能比較高,因為小孩他還在成長。這樣一來,人臉識別不僅會因為不夠精確而給兒童帶來更多不便,并且兒童的面部數據在隱私權方面更為敏感,這就意味著對兒童的使用應該更加審慎。
由此,借助行動者網絡分析,就是要把技術背后的人和利益找出來。比方說AI醫(yī)療,那么現在很多大醫(yī)院都在推人工智能,如將人工智能用于影像識別,替代專家識別癌癥等。但哲學家和社會科學家會還是可以通過行動者網絡分析,提出一系列的疑問,一是這會不會提升醫(yī)療成本。二是這樣會不會讓小醫(yī)院處于被淘汰的地位,而小醫(yī)院都淘汰了以后,社會上只剩下大醫(yī)院,那么對于人民群眾來說是不是更有利?還有就是,對于那些因為這種應用而可能面臨失業(yè)的醫(yī)生來說,有沒有人考慮他們的利益,給予培訓和轉崗方面的必要救濟。我講的這些思考、分析和探討就是倫理審計,其關鍵就是通過對行動者網絡的揭示,把技術背后的人和利益找出來。
第五種武器:非對抗性的倫理策略與信任再造
什么叫非對抗性?就是要對新技術的過程和后果進行一種理性的分析、反思和行動。就信息技術而言,它的產生就是為了克服控制的危機而推動的控制革命。信息與數字技術的發(fā)展帶來了很多便利和創(chuàng)新,但生活在每一個人都有一種焦慮,都有什么樣的焦慮?就是在這個信息和智能社會中,人們越來越多地被技術管理。
以前的社會管理比較簡單,主要是由門衛(wèi)或者是街道帶紅袖箍的老太太這些人管。但是將來,我們會越來越多地面對看不到的人的管理或看不到人的治理。這種管理和治理的普遍應用,難免導致所謂的機器官僚主義或數字官僚主義,比方說如果你沒有智能手機、沒有健康碼、不會相關操作,就有可能受到排斥,會遇到各種不應有的不便。面對這樣情況怎么辦?非對抗性的倫理策略就是,我們既不拒絕技術,又不簡單地停留于對技術的批判,而是不徐不急,拿出耐心和韌性,傻傻地跟它纏斗。
比方說,現在很多算法,用于各種依據數據進行的決策,但從一般的評估模型到深度學習,算法作出決策的過程往往如同一個黑箱,不會或不能合理解釋它作出決策的理由。這種算法黑箱影響到人們對智能技術本身的信任,為了使人信任算法,就要打破黑箱,讓機器的智能決策和行為變?yōu)榭山忉尩模l(fā)展可解釋的人工智能。
如何實現可解釋的人工智能呢?有一種方法是引入反事實條件解釋。什么是反事實條件解釋,舉個例子,如果要解釋我為什么沒有被某個公司錄用,可以指出其原因是我不滿足條件A——而另一個其他條件跟我一樣且滿足A的人被錄取了。還有在用智能算法決定不給你貸款的時候,也可以通過反事實條件解釋說明原因。
人工智能的發(fā)展要為社會廣泛接受,需要構建一種機制,形成一個從算法可解釋轉化為可信任的自動呈現過程。為了提升人工智能的可解釋性和可信度,研究人員開始在算法等人工智能應用中引入自我解釋。根據“谷歌大腦”研究員蔡嘉莉(Carrie Cai)團隊的研究,不同的解釋會讓用戶對算法能力作出不同的評價。
在該研究中,研究人員向用戶展示了一個用于識別手繪草圖的人工神經網絡Quick Draw的自我解釋界面。為了說明機器學習算法為何無法識別一個手繪的牛油果草圖,研究者讓系統在顯示界面上以圖解的方式向用戶呈現出兩種解釋。一種是“標準”解釋,向用戶展示了智能系統正確識別過的其他牛油果的圖像。另一種是“比較性”解釋,向用戶展示了類似形狀物體的圖像,比如梨或土豆。接受標準解釋的用戶感覺人工神經網絡更為可信,接受比較性解釋的用戶則認為這種人工神經網絡雖然存在局限性,但更有“親和力”。不論是那種自我解釋,都有助于用戶認識智能系統的能力,看到機器智能的限度乃至盲區(qū)。
第六種武器:彌合分歧的認知補償與價值外推
什么叫彌合分歧?實際上就是我們在遇到一個不清楚的事情時,容易發(fā)生爭執(zhí)。有時候是因為信息少,但在很多情況下,信息并不少,依然莫衷一是。造成這些分歧的主要原因是,我們沒有從“信息”的本質來理解它。
“information”這個詞主要翻譯為“信息”之前,還有一個詞叫“情報”。在信息時代,處理信息的首要原則,就是你不要做傻白甜,不要說它說啥就是啥,而是它說任何一個東西,你都要打一個問號,要問一個為什么。這個叫做要做認知上的強者。什么叫做認知上的強者?就是你要有情報意識,對各種信息學會有條理的、理性的懷疑,這樣你就可以做認知上的強者。
另外一個策略叫做價值解纏策略。什么叫價值解纏策略?就是對于那些有爭議的知識,要把價值與事實分開,特別是要學會拒斥那些不合常理的迷信和沒有事實作為基礎的知識。比如說,中醫(yī)有五千年的傳統了,中醫(yī)很好,人們會因為中醫(yī)獨特的傳統價值而相信中醫(yī)。在這種情況下,應該按照中醫(yī)的方法和原則,比方說望聞問切和辨證施治所進行的治療活動,可以視為更可接受的。但是我們對于神醫(yī),只有夸大的價值而缺乏在中醫(yī)自身體系內的可接受性,吹得再神,也不要管它。
同時,我們可以采取所謂的價值外推的策略。什么叫價值外推的策略?就是我們始終除了要站在個人、團體和族群的角度評價事物的好壞高低,還要站到整個人類社會乃至超越人類的角度來看問題,要學會站在不同的文化和從不同的未來愿景看待事物,學會相互理解。
第七種武器:智能化社會試驗與未完成的倫理
面對智能化科技所帶來的高度不確定的未來情景,必須以倫理的智慧,確立創(chuàng)新的速度和限度,在顛覆性的創(chuàng)造和顛覆性的毀滅之間找到一個人類文明可以承受的界限。
盡管中國不一定所有的領域處于領跑地位,但是在很多領域已經或將要跑在前面了,以前的科技倫理風險和問題都發(fā)生在發(fā)達國家,而現在越來越多地發(fā)生在我們身邊,科技倫理問題對我們來說將變得越來越重要。所謂科技勇闖無人區(qū),就意味著科技倫理必須與創(chuàng)新并行甚至要預先有所設計和考量。因為科技倫理是開放性的風險和挑戰(zhàn),我們需要在思想上要構建一種價值的導航儀和倫理的反射弧。
談到倫理,難免涉及一些較高的價值訴求,比方說如何在人工智能時代尋找人的尊嚴。但也要看到,從古到今從來也沒有一個道德完美的世界,沒有一個道德的理想國。過去沒有,現在沒有,將來也不一定會有。那么,我們能夠追求的是什么?就是盡量地減少倫理風險和負面問題,盡量地減少科技應用對人造成的傷害。
基于此,我造了一個詞,叫倫理負債,即現代以來,為發(fā)展科技付出的倫理代價。值得我們思考的是,科技時代人的行為和人的活動對于大自然和人自身有哪些倫理負債?科技的倫理負債不是籠統的,而是具體的,可能表現為人與人在技術活動中得失的鴻溝。比方說,很多網絡平臺、社交媒介以及智能應用的發(fā)展,因為缺乏倫理考量、設計和審計,普遍存在著在用戶不知情的情況下搜集和濫用用戶數據的現象,難免以侵犯個人隱私和損害個人權益為代價。我們應該思考的是,這些科技的應用可能可以減少倫理負債,要讓技術開發(fā)者和技術應用的主導者意識到,科技造成的倫理負債將可能導致普通用戶對科技的不信任,影響科技的長遠進步。#p#分頁標題#e#
科技帶來的倫理負債除了會導致各種可見或可衡量的負面影響之外,還會對人的意志和愿景造成顛覆性的影響。對此,如果說人們希望在人工智能時代保持作為人的尊嚴的話,需要警惕兩種會影響到人之為人的志氣的傾向。
其一,要徹底擺脫普羅米修斯的羞愧。什么叫普羅米修斯的羞愧?普羅米修斯就盜來天火、給人類帶來技術的神。普羅米修斯的羞愧是什么?就是現在人們在機器面前越來越有一種自愧不如的羞愧。比如,我們計算沒有計算機準,眼睛沒有望遠鏡看得遠,認路不如手機導航,就算識別人臉也趕不上機器等等。實際上,人們并不需要也不應該有這樣的羞愧,為什么?因為機器再厲害,它是人類創(chuàng)造出來的。
其二,要拋棄第四連續(xù)或者是奇點臨近的“鬼話”。所謂第四連續(xù)也就是弗洛里迪所說的第四次革命,它其實是對科技對人及其外在世界的關系的影響的概括,是某種后見之明。其中,第一次是所謂哥白尼連續(xù)或革命,打破了地球與其他宇宙天體之間的差異性,使得人們認識到,地球并不特殊,而與宇宙連為一體。第二次連續(xù)是達爾文革命,指出人和猴子是連在一起。第三次連續(xù)是弗洛伊德革命,說理性和非理性是連為一體的。
那么,第四次連續(xù)可以說是控制論革命,弗洛里迪強調的是智能革命或圖靈革命。其大意是人和機器要連為一體,人和機器合二為一。但在這種連續(xù)與合一發(fā)展到奇點臨近之類的后人類思想時,似乎意味著人應該被淘汰,不論是否情愿,最終要為機器的達爾文式進化讓路。也就是說,機器會戰(zhàn)勝人類,機器會統治人類,我覺得這些不是“人話”而是“鬼話”。
3、新中華未來主義的兩條基本路線
那么我們怎么辦,網上有一個講述中國人擁抱數字技術等新興科技的視頻,冠以所謂的中華未來主義,大意是說,面對新興科技,中國人在勇敢地往前沖,不管它所帶來的代價,包括倫理問題、道德問題等。如果那么在乎其中可能存在的偏見,單從文化批判的角度來看,有很多地方值得進一步探討。
實際上,其啟示在于,現在我們需要一種新中華未來主義。新中華未來主義是什么樣子?我認為有兩條基本路線。
第一,自主賦能與自強不息的君子之道。這個君子不一定是什么儒家的君子,而是我們現代中國人意義上的君子。應該相信,我們現在的文化總體上遠遠比古老的文化要輝煌燦爛,不能活在輝煌的過去的陰影里,要有這個自信。
第二,自發(fā)自助與兼愛共生的義夫之道。在墨翟和公輸般的攻防戰(zhàn)中,墨子搞了一些兵棋演繹,說不論你怎么進攻,我都可以防衛(wèi)。墨子實際是一個早期的自助自發(fā)的群體主義的倡導者和實踐者,并且在不同的區(qū)域和社群之間去做聯結。在聯結的過程中,他們很講究役夫之道,役夫就是販夫走卒。在現在看來,所謂役夫之道,就是要站在普通人的角度來思考問題,調動他們的能動性和創(chuàng)造性。
4、尋找自由女神像之旅
最后,我給大家分享一點我個人的獨有的經歷。在2018年期間我在紐約尋找自由女神像的故事。當時已經是傍晚,我按照手機地圖上的路線規(guī)劃,從紐約坐了地鐵坐,去看自由女神像。有趣的是,下了地鐵以后,天已經黑了,我獨自在空無一人的道路上走了一個多小時,才走到岸邊看到遠處一個島上的自由女神像,在手機拍下的照片上只留下些模糊的光點。

我們再來下面這兩個圖片。在左邊這張由安迪·沃霍爾的波普藝術作品中,自由女神看起來很宏大。但是我在紐約發(fā)現的女神卻是華爾街的銅牛像對面的這個小女孩。這個小女孩在干什么呢?她勇敢地插著腰,代表中小股民斥責華爾街的牛。而我就是希望我們像墨子一樣,站在販夫走卒的那邊,站在牛的對面,跟這個勇敢的小姑娘,也就是我所找到的“自由女神”站在一起。


     

在無知中纏斗
劉永謀(中國人民大學)
書快結尾的時候,段偉文寫道:“耐人尋味的是,智能化時代人類最需要的不再是知識論而是無知學,即人們迫切需要了解的是怎樣在無知的情況下作出恰當的決策。”這句話提綱挈領地總結了信息時代人的命運和行動的根本特征:無知。
在某種意義上說,知識面向的是過去:當某人、某物或某事成其之所是,才能談論知道它們的“什么”。比如評論曹操是梟雄,或者認定地球上的重力加速度是9.8米/秒2,必須以過去的經驗為基礎。一旦轉向未來,無知就會包圍著我們。所有對未來的想法都是從過去推斷未來,其中關鍵在于:未來與過去仍舊相同,或者說,世界是規(guī)則的。但是,規(guī)則律是一種形而上學的信仰,無法得到科學證明,比如9.8米/秒2重力加速度在未來可能變化。即使萬有引力定律的非時間性,嚴格地說也不能完全確定,世界演化到新階段時它存在崩潰的可能性。
當人們歡呼信息社會到來,絕大多數人沒有意識到自己迎接的是一個全新的無知文明。1946年第一臺電子計算機問世,1969年作為互聯網基礎的阿帕網建成,之后賽博空間和電子信息暴漲,表面上知曉很多聞所未聞的“奇怪”知識,卻發(fā)現它們卻并沒有讓我們對于如何行動或選擇有多少實質性的幫助。到智能革命方興未艾之時,人類手足無措的處境已更加凸顯:我們甚至不知道機器人會不會滅絕人類,同時又被技術-資本的強大邏輯推動著向“無知之境”狂奔。
實際上,不光AI技術,其他新科技如納米科技、基因工程和人體增強等,都帶有強烈的未知性。為什么呢?以往知識的目標是解釋和理解過去,用來“知道”什么,現在知識的目標是預測和控制未來,用來“治理”什么。當代新科技使得整個社會日益深度科技化,正如工業(yè)革命以來不能容忍作為荒野的自然,人類今日不再能容忍偶然和無規(guī)律的社會。顯然,消除對社會的未知,最好的辦法是設計和規(guī)劃社會,包括設計和規(guī)劃組成社會的每一個個體。
詭吊的是,對無知的痛恨沒有消滅它,相反使得無知瘋漲。從本質上講,信息文明試圖建構敏銳而有力的社會神經系統,智能文明試圖在此基礎上加上強大的反饋運動系統。舊時代的知識世界是理想化的世界,人類滿足于在概念中應付世界;而新時代的無知世界是真實的世界,人類用大數據、全數據、長數據來替換物理世界。結果卻如蘇格拉底早已指出的:知道得越多,必定未知更多。
“無知的世界”便是《信息文明的倫理基礎》嘗試仔細描述的、我們身處其中的當代社會歷史境遇,亦可稱之為“數字幻術”的世界:“數據對人的行為的絕對理解是一種永遠不可能實現的幻術,巨量的大數據實驗所捕捉到的不是鮮活的人類生活,而是由數據廢氣構造的世界的僵尸版本?!?br/>段偉文首先追溯信息網絡空間的緣起,并歸結出它的3個基本向度:對象性、意向性和交互性。就對象性而言,網絡世界已經成為海德格爾筆下籠罩一切的“座架”,萬事萬物都被編碼為波普爾所稱的“世界3”,即客觀知識的世界,最終塑成為虛擬資本主義的新邊疆。就意向性而言,網絡世界不僅僅是容納野蠻生長的信息之巨大容器,而且成為“一種生長性的人(此在)的意向空間”。就交互性而言,段偉文總結人們在賽博空間“共在”的3個特點:(1)復制:在網上對原本與復本的區(qū)分意義不大;(2)虛擬:所有網上在場都是虛擬的;(3)出位:大家既在網上又不在網上,在線和離線不過在一念之間。
接著,《信息文明的倫理基礎》分析網絡空間中的2個基本理論問題,即網絡空間的知識權力結構,以及個人在網上的生存狀況。網絡的知識權力結構可以總結為一種動態(tài)的雙螺旋構造,即相互作用的“技術螺旋”與“市場螺旋”。技術螺旋的動力是信息過載:信息過載導致技術改進,技術改進又使得傳播內容和速度大為增加。市場螺旋的動力是價值:網絡用戶數量增加,整個網絡的市場價值不斷增加,反過來吸引更多的用戶。在雙螺旋運動中,網絡知識權力空間得以急速擴展,個體在其中面對著異化和沉淪的巨大風險,比如權力宰制、自我幻象、數碼焦慮、虛實莫辯和信息沉溺等等。
在書的后面部分,段偉文集中對虛擬現實、大數據和人工智能等信息與通信技術(ICT)最重要的組成部分進行專門論述,討論它們面對的倫理問題和應對問題可能采取倫理策略。他認為,信息理論的主旨是“克服由信息資源占有的不對稱所可能導致的負面效應,同時使信息行動者在信息生態(tài)共生中獲得更大的福祉”,因而信息倫理機制構建的主要環(huán)節(jié)是“從信息生態(tài)的整體視角出發(fā),尋求信息權利的合理分配機制”。信息文明的倫理構建無法一勞永逸,而是不斷處于變化、調適和再平衡的動態(tài)發(fā)展之中。#p#分頁標題#e#
因此,在段偉文看來,這將是一場無休無止的纏斗或爭勝,此即他所謂的“倫理反射弧”的實質。纏斗不是敵對,前者是非對抗性的。以信息平等為核心的網絡倫理秩序,總是充斥著權力實踐和反權力的挑戰(zhàn),權力與反權力不可根除,無時無刻不彌散于賽博空間的每一個角落。纏斗的雙方并非敵人,而是爭勝的對手,一邊纏斗又一邊承認大家屬于共同的賽博聯合體。
在我看來,纏斗是介于過去與未來、已知與未知之間的“當下”的必然選擇。活在當下,乃是活在“半懂不懂”或者“不懂裝懂”之中。我們轉向未來,但無知學尚未建立,只能是適度地有節(jié)制纏斗:既不甘于過去拘泥現狀,又不愿意未來陷入殘忍甚至毀滅。所以,纏斗本質上是一種審慎生活或生存之創(chuàng)造。
說老實話,“倫理反射弧”并不能讓人滿意,但是考慮到創(chuàng)造之復雜和困難,很難給出更為詳細的理論刻畫,暫且接受段偉文的這種說法。網絡空間存在淪為“僵尸世界”的風險,可以批評數據主義、算法權力和“控制革命”,但無論如何,賽博空間中的創(chuàng)造活動時時都在發(fā)生,人人都在參與,并且永遠不會停息。換言之,不能否認,網絡空間是當代世界最有生命力的組成部分。
(本文的刪節(jié)稿發(fā)表在《中國科學報》,2020年9月10日)
重新認識自己:在技術之力與倫理??敝姓覍ぷ晕?/strong>
閆宏秀(上海交通大學)
智能技術的泛在性與深度滲透一方面是人類智慧的表征,另一方面卻又讓人類對自己的智慧表示擔憂。當今技術的發(fā)展迫使我們需要仔細思考我們該如何有智慧地活下去,避免文明的脆斷與自我的迷失。恰如段偉文教授在《信息文明的倫理基礎》一書的跋中所寫:“今天我們如何認識這個世界并進行價值對話?”這種對話至少滿足我們有對話能力和該對話是有價值的兩個基本條件。也就是說,要進行這種對話的前提條件就是我們還知道我們是誰以及我們還能力思考我們是誰,這個對話的過程是我們在厘清自己是誰,這個對話的結果是我們想謀劃或規(guī)劃一下我們自己應該是誰,并且這種謀劃或規(guī)劃是有價值的。從本質上講,這種對話就是技術時代的人類在技術之力與倫理??钡碾p重驅動下找尋自己。
1、技術之力:認識自己的新場景
我們生活在技術造就的世界之中。我們的文明與技術息息相關,如工業(yè)文明、信息文明;我們甚至用技術來劃定時代,如舊石器時代、新石器時代、青銅器時代、計算機時代、智能時代等。技術不僅僅是作為工具進入人類社會,更是作為人類生存的方式進入到對人的塑形之中。在技術與人的互動之中,技術之力在構成人類生存場景的過程中,開啟了人類認識自己的新場景。
當技術以族群或者匯聚的形式出現時,一項新技術的介入可能會燃爆某種境況?!半S著互聯網、電子商務和社交新媒體的出現,接上大數據這個自來水龍頭之后,這一曾經獨孤求敗的屠龍刀才有了用武之地?!狈从^這段話具有極強畫面感的表述,在大數據技術自來水水龍頭的給力下,智能社會如虎添翼。但若因這個水龍頭失靈而帶來的水漫金山,當數據洪流帶著泥沙砸過來,且這些數據還是智能的,那人類該怎么辦呢?
在技術之力面前,人類應該保有自己的獨特判斷力。在日常生活中,我們會在人與技術的博弈中彰顯一下自身的智慧。如,在從A地到B地的過程中,我們會借助導航系統,并通過自己的判斷力進行取舍,智慧地選取覺得最優(yōu)化的一個方案。這種取舍貌似是人類智慧的主場,事實上是我們在人與技術的共融場景下,用自己的智慧與技術之力進行某種平衡。若我們還可以平衡的話。換句話說在智能時代這樣一個新的技術語境下,我們力圖給自己留出有用的空間。那么,怎么留出空間呢?
我在這書中找答案,答案在很多地方都有。不妨看這么一段,我覺得這是本書相當霸氣也相當有想象空間的答案?!霸谧呦蛑悄苌鐣拈_端,人應該回歸人類最古老的智慧——不僅承認自己的無知,而且時刻與對世界的‘真相’的全盤揭示保持一定對距離,給人們反思自我和對前瞻未來留下微妙而必要對縫隙。”說其霸氣留出空間的一個必要條件是——是因為承認人類要自己的無知;說有想想空間基于作者所言的“保持一定的距離”。這個縫隙是多寬?距離是多少?大家都知道有個詞是零距離。若是零距離,則人類認識自己到底認識的是什么?又該如何認識自己?
2、該如何認識自己?
認識自己作為一直縈繞人類的問題,也是一個恒久卻又常新的問題。這絕非易事,康德關于人的四個哲學追問,即我能認識什么、我應當做什么、我能期望什么、和人是什么一直是哲學界長期思考的話題。在智能時代,信息與數據的暗流中,這個問題更加魔幻。當今,我該如何認識我自己呢?
通過數據透視我自己,在數據與我的認知之間進行認識自己之旅。書中通過權力宰制、自我幻象、數碼焦慮、虛實莫辨、信息沉溺等新技術帶來了自我認識中的無根基的信息化身份認同,并形成另一個它視角的自我。曾經有《聞香識女人》,現在呢,是不是可以依數據識人?手機數據是不是助推了對自己的認知?打開手機,看看自己的體重曲線、走路步數、睡眠指數等各種數據指標,我們可以開啟對自己的健康認知,再進入到對自己的全方面認知等。從中可看出,在某種程度上,是技術讓我認識我自己。
就在技術開啟自我認知的過程中,另一個問題相伴而至。這個問題是認識的是哪個自己?且不說,整容、或人類增強后的自己,我們在人工智能時代,通過數據透鏡認識的是肉身、數據人、抑或身體聯網的人?在書中,作者對人給出了多種畫像。當下數據處理的默認狀態(tài)或者缺省值是記錄,那么,會依據時間軸形成一個自我的描述。這個描述可以說是另一個數據自我與我的博弈,是一種平行式的生活,多出了一個平行的我。但事實,多元自我非但不太可能帶來自我的統一,反而更可能導致自我的分裂。
3、倫理校勘是否可以讓我們還能認識自己?
前英國皇家學會會長、著名天文學家、劍橋大學的馬丁·里斯認為:每一項創(chuàng)新確實在一開始都蘊含著不確定性,都與風險相伴,甚至可能是一種冒險。也正是因為科學技術自身的不確定性,使得倫理的維度被視為科學技術發(fā)展的一個重要因素。在技術時代,倫理??闭娴目梢允刈o我們的本質嗎?
書中坦言:“一般而言,針對科技應用和研究的完整的規(guī)制體系主要包括技術標準、倫理規(guī)范和法律規(guī)定三個層面。但鑒于虛擬現實屬于新興科技,客觀上具有技術超前和法律之后的特征,則使得倫理規(guī)范成為規(guī)制體系的關鍵環(huán)節(jié),一方面追趕技術發(fā)展,使倫理規(guī)范嵌入技術標準,并與之相互整合,以實現負責任的研究與創(chuàng)新,另一方面為后續(xù)法律規(guī)定劃定價值底線與權益邊界。”所以,在對于我們還能認識自己的回答中,我們需要倫理智慧,但這并不意味著是倫理智慧是破解該問題的唯一方式。
面對技術之力的無處不在,《信息文明的倫理基礎》將技術之力以哲學的視角呈現出來,在這種呈現中,自我的迷失也迎面而來。毫無疑問,人類不愿意迷失。因此,技術的發(fā)展過程,事實上也是人類自我認識與自我表達的一個過程,而倫理校勘的恰恰是在讓人類在這個過程中找尋自我。
(本文的刪節(jié)稿表在《上??萍紙蟆?020年10月16日第6版)
以柔克剛:以倫理建構的方式對抗技術理性
楊慶峰(復旦大學)
面對現代技術對于生活世界的控制,我們該如何應對?最近,《信息文明的哲學研究》叢書(王站、成素梅主編)的推出對這一問題給予了整體式回應。信息哲學家段偉文的《信息文明的倫理基礎》(以下簡稱《基礎》)更是呈現了以信息倫理反射弧為基本概念的倫理思考理路。這一思考本質上是一種柔性的接納,因此產生了奇特的“繞指柔”效果。“何意百煉鋼,化為繞指柔”,作者的思考恰恰展現了這樣一個過程。從著作整體架構來看,作者指向了信息空間、大數據知識、人類深度智能化等技術形式,借助現象學反思、借助倫理學等哲學工具展開了深挖和批判,為不臣服于技術邏輯而展開運思。在這種嚴肅概念思維分析的背后,透露著一種道德柔情。即便面對技術理性的跋扈,也更多是想到的美好一面。
1、《基礎》一書所提的問題
《基礎》一書提出了兩個首尾呼應的問題。在開頭,作者提出了如何使得我們不臣服于技術變遷邏輯的問題。“人類必須作出的終極價值抉擇是,在創(chuàng)新使得世界不再是過往的世界,我們不復是從前的我們時,如何使人性依然可以在框定技術前行的方向,而不是臣服于技術變遷的邏輯。”(p1)作者已然清晰地看到一個變化:創(chuàng)新驅動的時代,過去的世界已然過去、過去的我們不復存在。從時代看,我們的時代發(fā)生著翻天覆地的變化,僅僅從交通方式來看,車馬行走變成了高鐵飛機,甚至人們期盼著未來的瞬時傳送的方式。這個時代以加速和空間拉近開啟了變成地球村的節(jié)奏;從人的存在來看,我們已然發(fā)生了悄然的變化。這種變化以進化的方式呈現出來?!拔覀儭睆姆侵拮叱鰜?,然后變成了地球的主人,從偶然地借助天火,到現在可以自由地控制化學燃燒反應。在這個過程中,我們經歷了什么?服從于技術邏輯。以計算機芯片來說,始終在摩爾定律的框架中前行。但是,人類的發(fā)展卻不止于此,隨著人工智能的發(fā)展,摩爾定律失效了,人們可以掌控技術邏輯的發(fā)展。這一問題隱隱顯示出作者力圖在人類與技術邏輯和技術世界之間的關系中找到一種平衡。#p#分頁標題#e#
在結尾,作者更是提到了一個當前新冠疫情這一重大危機帶來的啟示:“信息化與智能化昭示了無止境的科技未來,但是人們必須認真思考如何應對文明脆斷的可能?”這一問題的提出,讓我們仿佛聽到了文明發(fā)展之樹枝在技術沖擊下發(fā)出的脆斷之聲。我們該如何看待文明脆斷的可能性,這是這一問題的意義所在。在自然發(fā)展過程中,災難性遺忘總是不可避免地。比如個體記憶消退和被刪除后導致的災難性后果;人類文明在全球化沖擊下已經遭遇的斷裂。這兩個問題的提出很尖銳地指向了人與技術的關系,技術邏輯導致了人類文明的脆斷可能性。我們把這兩個問題統稱為技術理性問題,而反思者真正要面對的問題是如何對抗技術理性的無邊蔓延。
2、上述問題的實質
“控制的危機”是作者2017年曾經提到的問題?!凹夹g變遷的邏輯”則是《基礎》對于整個技術危機本質的診斷?!皯{借法力無邊的機器智能,過去和現在已經不能滿足技術無與倫比的控制力量,計算的洪流在未來已來的鼓點種入侵未來?!保╬2)這一問題有哲學上的依據?!八肌毙枰龅木褪菍辜夹g化的控制。而反抗的根本是思考現代技術與理性的關系。按照海德格爾的說法,現代技術是現代性的極致形式,這道出了現代技術與理性之間就是一種內在的等同關系。哲學家們對于現代技術的控制本質已經給出了不同層面的反思,比如黑格爾將現代技術看做是精神外化的形式之一;海德格爾指出現代技術的本質是座架,這一觀念是形而上的直接指向存在顯示形式。技術的控制也是理性的控制,二者的同一是哲學家?guī)Ыo我們的重要觀念。所以,從哲學史的角度看,反思理性運行成為最為關鍵的事情。在這一基礎上,對理性極致代表形式的技術進行反思就成為應有之義。
再回到《基礎》書中,作者提出的“信息倫理構建”是反思理性的一種重要形式了。這一反思嚴格地說屬于理性內在的反思,也就是通過倫理形式來反思理性自身。在其整個文本7章內容里面,有五章直接展現了這種倫理反思的不同對象。比如在第二章展現的是對知識理性的信息倫理反思、第四章是對技術理性的倫理反思、第六章和第七章是對數據理性和智能理性的倫理反思構建。在整個邏輯中,貫穿著兩條線:一是理性形式的變遷,從知識到技術,技術又表現為從信息到數據和智能的變遷,這可以與人類科技的四次革命變遷變遷形成呼應。二是倫理向度的彰顯與倫理邊界的構建,以反射弧為發(fā)端的倫理構建。
在諸多技術形式中,信息網絡空間引起了筆者的極大興趣。為了對抗這一理性形式,作者采用了現象學的闡述方法。他重點揭示了信息網絡空間的三個基本向度:對象性、意向性和交互性。在信息技術與信息經濟敘事中,采取的就是將空間看做是容納并處理對象的場所;從現象學角度看,信息網絡空間是一種生長性的人的意向空間。(p38)信息網絡空間是一種實時的重疊共識。通過層層剖析,信息網絡空間的結構完全透明。這一章與第五章,倫理向度似乎向內收斂起來,信息網絡空間自身的向度與大數據認知與社會歷史維度的構建成為最后落點。
3、倫理構建的總體商榷
對于倫理內在的反思來說,其不是一種激烈的對抗,而是顯示著繞指柔的意象特征。作者盡管采取了不同的分析工具,這些工具中和適用,長于揭示問題,而批判性較弱。主要通過2個方面表現出來。
第一,“不臣服于技術變遷的邏輯”。對于技術邏輯的本質揭示,我們看到的是一種充滿激情的抨擊。“數據對人的行為的絕對理解使一種永遠不可能實現的幻術,巨量的大數據實驗所捕捉到的不是鮮活的人類生活,而是由數據廢氣構造的世界的僵尸版本?!保╬16)這顯示了一種理工科出身學者的情懷。但是,激情過后,那種理性的對抗并沒有保留下來。我們看到的不是一種建構式的態(tài)度,而是一種否定式的表達:“不臣服于技術變遷的邏輯”?!安弧迸c“臣服于”充分地顯示了這種態(tài)度。根據一般寫作的規(guī)律,引論一般都是在最后寫就?!痘A》的引論、余論和跋的內容均發(fā)表于2020年以后。最終,鮮明的批判最后停留在“不臣服”的否定性表達上。
第二,柔性規(guī)范。技術神話其實質使曠日持久和規(guī)模不斷拓展的社會倫理實驗。以往的道德規(guī)范難以應對,“只能在其技術實踐和體驗中,逐漸構建起相應的倫理反射弧,進而試圖在各種柔性規(guī)范的基礎上,制定剛性的和可執(zhí)行的法律規(guī)范。”(p3)在作者這里,倫理反射弧始終是柔性規(guī)范,有別于剛性的法律規(guī)范。其作用更多是說服和感化。
最后,回到最初的問題:用什么樣的方式對抗技術理性?就對抗而言,我們終究還是會想到一個關鍵的人物,利科。他選擇了記憶作為對抗理性傲慢的工具?!坝洃洭F象,和我們如此緊密地聯系在一起,最為頑強地抵抗著徹底反思的傲慢?!迸c之相比,記憶是對理性的對抗與拯救。而相比之下,倫理的方式始終是柔性的和充滿關懷的,從本質上看,倫理內在地同一于理性,而且尚需要法律的補救。從根本上來看,《基礎》并不是對抗意義上的著作,因為思想的剛性經過百次錘煉已然演化為實踐的柔性,顯示出其獨特的道德柔情。