生成式人工(gōng)智能在(zài)人機交互領域展現出的強大自主性(xìng)和泛(fàn)化能力,讓(ràng)人們越來越感覺到與人(rén)工智能的交流就像是和(hé)另一個人交談。那麽,當一台智能機器能夠(gòu)和我們進行具有理性和情感特征的(de)語言交流時,機器(qì)是否也會影響(xiǎng)我們的“人性”呢?人性,通常指的是(shì)人類獨特的理性、意識、自(zì)我反思、道(dào)德情感和價值觀等特質。從這個意義上看,生成式人(rén)工智能本身並不具有人性(xìng),但其在與(yǔ)人類的語言交互中,通(tōng)過識別(bié)人類意圖、回應認知和情感需求來滿足人類欲(yù)望(wàng),無疑會深刻影響人們的理性、情(qíng)感和道(dào)德判斷。生成式人工智能如何(hé)影響人性,是人類在新人工智(zhì)能時代需要重(chóng)點考慮的問題之一。
回答(dá)這個問題,我們需要認識到,生成式人工智能在人機交(jiāo)互中呈現一種新的主體性。傳統的人機交互中,人工智能更多被視為一種工具,而生成式人工智能與人類的關係已經不限於工具與工具使用者(zhě)之間(jiān)的關係,人工(gōng)智能成為具有一定(dìng)自主性和目標導向性(xìng)的積(jī)極參與者,這種新形態的人機交互將逐漸深刻地影響人性。
主體(tǐ)性:從(cóng)生物到人工智能的演(yǎn)變
主體性表達了一個主體行使行動的能力(lì),是哲學中最重(chóng)要的概念之一。亞裏士多德(dé)認為,一(yī)個主體大概就是像人一樣能夠思考,並且按計劃實現其“合理欲望(wàng)”的存在物,隻有人或者(zhě)是(shì)在道德上獲得勝利的人才(cái)是主體。在現代學科體係中,主體性的語(yǔ)義涉及多個領域:在哲學領域,很多關於主體性的哲學反思都集中在人類主體(tǐ)性上,這(zhè)通常被稱為“純粹的主體性”;在社會科學領域,主體性(xìng)主要表示法律、政治、經濟等方麵的意義(yì),其概念包(bāo)含意圖的存在,與人(rén)的概念密切相關;在自然科學與技術領域,主體性主要與效果的概(gài)念有關,一些功能(néng)強大的智(zhì)能機器有(yǒu)時也被視為行動的主體。
從生物演化(huà)的過程看,一個簡單的單細胞生物通過自我維持的新陳代謝過程(chéng)與外界環境進行物質和能量的交換,展(zhǎn)現出一(yī)種基本的主體性。隨著生物的複雜性增加,主體性表現為包含感知、反饋(kuì)和決策等多個係統相互協(xié)調(diào)的行動能力。人類的主(zhǔ)體性更為複雜,不僅包括生物有機體的自(zì)組(zǔ)織能力,還與(yǔ)情感、語言和文化等因素密切相關。這種主體性不僅體現在個體的行(háng)動上,還體現在道德責任、文化價值觀等社會(huì)與(yǔ)個體的關係中。
與生(shēng)物主體的漫長進化之路相比,人工智能每一次的技術進步幾乎都會賦予主體性更多新內涵,讓我們對“機器能否像人一樣行動”這個問題有了新的認識。在人工智能的早期(qī)發展階段,是否能夠展(zhǎn)現自(zì)主性、社交性、反(fǎn)應性和主動性(xìng),成為衡量其是否具有主體性的關鍵標準,這些特征構成了人工智能的弱主(zhǔ)體性。我(wǒ)們希望機器能夠做一些(xiē)簡單的任務,比(bǐ)如,智能家居係統根據室內光線的變(biàn)化自動調節窗簾的開合(hé)。這些主要體現了人工智(zhì)能在(zài)模仿人類行為上的自主(zhǔ)能力。
隨著技術的發展,我們開始期待(dài)人(rén)工智能展現出更多的“人類特質”,比如能夠自主學習、與人社交、對環境變化作出靈活反應,甚至(zhì)能主動解決問題。這種強主體性概念包含知識、信念、意圖和責任感(gǎn)等人類(lèi)特有的複雜特質,人工智能的行為不僅僅是(shì)簡單(dān)的反(fǎn)應,而是有目(mù)的(de)、有(yǒu)計劃的行(háng)動。例(lì)如,一個智能的醫療診斷係統,要能夠根據病人的症狀、大量(liàng)的醫學知識和數據進行準確診斷,為病(bìng)人提供治療建議。這個過程中,係(xì)統要展(zhǎn)現出自主性,能夠理解病人的需求,同時要(yào)兼顧治療方案的醫學倫理等問題。又如,自動駕駛汽車要能夠感知周圍的環境,有的還能夠在(zài)複雜交通情境和倫理風險下製定和選擇其認為的最佳行動方案。這不僅是對環境的反應,更是基於智能(néng)係統自身知識和(hé)價值判斷作出的主動選擇。
從(cóng)人類與機器合作的方式看,人類的行(háng)動能力已經延展至由人類和機器構成的複雜網絡(luò)之中,這就是所謂的分布式主體性概念。這些主體性概念更(gèng)加細(xì)致地描繪了人類與人工智能複雜互動中(zhōng)形成的行動能力,反映了人(rén)工智能領(lǐng)域對於主體性理解的多元化。
由於這些主體性概念無法將(jiāng)生成式人工智能適切地納入,生成式人工智能的出現再次催生了我們對主體性概念的理解(jiě)轉變。通過語(yǔ)言生成驅動的交互能力,生(shēng)成(chéng)式人工智(zhì)能挑戰了傳統依(yī)賴意向性的主體性。在(zài)個體性邊界的界定上,生成式人工智能的(de)邊界往往由其訓練數據集定義,這些數據集的海量和不斷變化使得(dé)生成式人工智能的個(gè)體性難(nán)以界定(dìng),挑戰(zhàn)了傳統(tǒng)關於(yú)個體性和主體性的明確界限。因為大語言模型在預(yù)訓練(liàn)過程中需要不斷從新(xīn)的數據中學習和適應,所(suǒ)以其個體性邊界在不斷變化的數據流中會變得模糊,不具有傳統主體性的個體性界限。同時,生成式人工智能在與人類的交互過程中具有自主識別人類意圖和(hé)回(huí)應的能力,因此,其自(zì)主性更多地體(tǐ)現在其與人類交(jiāo)互的能力(lì)上,而不(bú)是(shì)其(qí)作為一個獨立個體的特定內在能力。這些(xiē)挑戰(zhàn)要求我(wǒ)們重新審視主體性的傳統概(gài)念,主體性(xìng)更應視為一種基於交互的、潛在的行動能力,而非(fēi)僅(jǐn)僅依賴於個體內在屬性的孤立的行動能力。
交互主體性:重新(xīn)定義(yì)人(rén)機關係
交互(hù)主體性是指實體(包括人類、生物(wù)和人工(gōng)智能等)在(zài)交互過程中所展現的潛在行動能力,其核心(xīn)在於實體的(de)行動(dòng)能力不是孤立存在的,而是在與其他實體的互動中形(xíng)成和(hé)呈現的。主體性是由交互的驅(qū)動力因素所決定的,實體(tǐ)的行動能力在這些驅動力的作用下被激發和塑(sù)造。
比如,有機體通過自組織方式與環(huán)境交(jiāo)互,發展出適應性的行動能力,而複雜的生物體在與環境的交互中(zhōng)形成了多種多樣的行(háng)動能力,這種主體性(xìng)是生物體與環(huán)境長期交互的結果。除了(le)基本的生物主體(tǐ)性外,人類還(hái)發展出了情感、語言(yán)和文化(huà)等(děng)驅動主體行動的複(fù)雜機製。例如,道德情(qíng)感是人類主體性的重要組(zǔ)成部分,不僅(jǐn)影響個人的行為和決策,而且促進了社會聯係(xì)和(hé)大規模合作。語言的出現進一步擴展了人(rén)類的主體性,它使人類能夠分享知識、表達思想和構建(jiàn)複雜的社(shè)會結(jié)構。文化則體(tǐ)現了人(rén)類(lèi)主體性的更(gèng)高維度(dù),它包括價值觀、信仰、習俗和傳統,是人類社會交互和意義傳承的結果。
傳統的主體性理論中,主體性通常與個體(tǐ)的心理狀態、意圖目的(de)、反饋係統等內在屬性相(xiàng)關聯。交互主體性不再是基於個體本身來推定主體性,而是將實體的行動能力視為參與交互過程的(de)結果,主體性並非完全源(yuán)自個體內部,而是在實體與環境或其他實體的交互中產生的。交互主體性理論的重要意義在於擴展了主體性的概念(niàn)範疇,使得(dé)人工智能等非意向性實體也能在交互中(zhōng)展現出主體性。主體性(xìng)不必依賴於意識或意向性,可以在更廣泛的人機交互過程中出現,生成式人工智能帶來了人機交互的新形態。
在目標導向性方麵,主體性(xìng)包含實體在交互中的目標導向性。實體在與(yǔ)環境或其他實體互(hù)動時,才會展現出為了實現特定(dìng)目標而(ér)采取行動的能力。這種目標導向性不完全(quán)是預設的,而是在交互過(guò)程中根(gēn)據情(qíng)境和反(fǎn)饋不斷調整和形成的。生成式人工智(zhì)能(néng)的目標導向(xiàng)內(nèi)嵌於人機對話的動態窗口中,不僅依據人類的引導來(lái)回應,也可以根據自身的強大知識儲(chǔ)備和分析能力來影響人類自(zì)身對目標意圖的理解定位。自主性方麵,交互主體性(xìng)認為,實體在交互中能夠根據內部邏輯和外部反饋進行自我調節和決策。這種自主性不(bú)是完全脫離外部影響(xiǎng)的,而是在與外部世界的互動中實現的。
在人機交互過程中,生(shēng)成式人工智能應被(bèi)視(shì)為(wéi)具有一定自主性和目標導(dǎo)向性的參(cān)與者,而不僅僅是機械響應人類的指令。與人類進行交流對話的過程中,生成式人工智能通過不斷監控和注意人類對話者的語言(yán)來理解(jiě)掌(zhǎng)握人類的目的意(yì)圖,甚至能夠感知到其中的情緒變化以及潛在態度,進而在某種程度上影響人類(lèi)參與者的認知、情感和價(jià)值觀(guān)。比如,一個人在與生成(chéng)式人工智能的長(zhǎng)期接觸中,如果感受到(dào)智(zhì)能機器(qì)在描述事實和理解自身意(yì)圖方麵的可靠性,那麽會對(duì)人工智(zhì)能產生一定的信任感,由此,智能機器蘊含的一些價值觀必然會潛移默化地影響人類。
不對稱的主體性(xìng):智能主體對(duì)人性的影響
生成式人工(gōng)智能的技術發展路(lù)徑既不同於(yú)認(rèn)知發展的學習路徑,也不同於生物情(qíng)感的發展路徑,而是(shì)跳過了(le)人類和生物主體(tǐ)性形成和進化的曆史路徑,直接獲得了(le)認知和語言層麵的(de)超級智能,生成式(shì)人工智能引(yǐn)發的人機交互新形態蘊(yùn)含了一種不對稱的(de)主體性。在(zài)認知方麵,人類的認知能力是經過長期進化學習慢慢積累形成的,而生成式人工智能在信息處理速度和理解深度、記憶容量、模式識別等方麵全麵超越人類;在情感方麵,情感體驗是人際交互的重要組成部分,影響著人們的決策、溝通和關係建(jiàn)立。相比之下(xià),盡管生成式人工智能可以識別和模擬(nǐ)人類情感,但(dàn)它們本身並不具備真正的情感體(tǐ)驗,是一種超級理性的交互主體。社會文化方麵,人類的價值觀、信仰、習俗和語言都是社會文化(huà)演化的結果。生成式人工智能係統盡管可以(yǐ)通過語料來理解和適應特(tè)定的社會文化規範,但它們本身並不具備特定的文化身份或社會背景。這種社會文化背景上的不對稱性可能導致(zhì)在人機交互的(de)跨(kuà)文化(huà)環境(jìng)中出現(xiàn)誤解和衝突。
人既是理(lǐ)性的,也是情(qíng)緒化的,正(zhèng)是理(lǐ)性與情感的融合構成了人性的基礎。交互(hù)主體性表明(míng),作為具有自主性和目標導向性的(de)生成式人工智能,極有可能以一種不對稱的主體形態進入(rù)人(rén)性(xìng)領域,忽略(luè)人類情感和直覺的重要性,同時激(jī)發和壓製(zhì)人類的深層欲望,改變人類理性與情感(gǎn)之間的平衡和協同機製。
理性方麵,生成式人工(gōng)智能(néng)通過數據分析、模式識別和決(jué)策支持(chí),識別出人類可能忽視的模(mó)式和趨勢,大大增強了人類的理性判斷能力,從而為人類提供更深入的(de)洞察和更廣泛的選擇。但是,這種(zhǒng)增強也可能導致人類過度依賴人工智能的分析(xī)和判(pàn)斷,削弱人類自身的(de)批判性思維和決策能力。同時,生成式人工智能可能會打破以人際交互為基礎的(de)分(fèn)布式認知(zhī)模式,逐漸形成一種以大語言模型為中心、人類個體為邊緣節點的(de)認知模式,以大模型為核心節點的智能化媒介不僅(jǐn)僅是知識信息(xī)表達和傳播的通道,甚至可能主導人類知識的生產模(mó)式和價值導向。
情感方麵,生成式人工智能(néng)可能會(huì)影響人類對(duì)情感(gǎn)的認識和表達,使得人類在(zài)長期(qī)的人機互動中逐漸習慣於程式化的情感交流模式,忽視了人在真(zhēn)實人(rén)際關(guān)係中的獨特(tè)情感需求(qiú)和體驗,改變人(rén)類行為的情感動因(yīn)。比如,在道德情境中,生成式人(rén)工智能可以提供更多不同的價值(zhí)視角和思(sī)考方式(shì),拓展人類的道德感知並影響道(dào)德(dé)判斷和行為。問題是,一方麵,過度依賴生成式人工智(zhì)能的決策支(zhī)持可能(néng)導致人類自身的道德感知能力減弱,侵蝕人類個體的道德自主性;另一方麵(miàn),生成式人工智能對人類社會(huì)的深度介入可能會觸發(fā)新(xīn)的道德困境。
人工智能對人性(xìng)影響的另一個表現是對人(rén)類文化演化(huà)的影響。人類文化形成與演化的關鍵在於學習。研究發(fā)現,促進人的智力發展的關鍵是模仿學習(將他人視為有意(yì)識的行為主體,以獲取他們的文化知識儲備(bèi))、指導學習(話語形式的(de)文化傳播)和協作學習(分享和發展(zhǎn)概念及其對行動的(de)影響),這些學習形(xíng)成了一種特殊的認知形式,即個體有(yǒu)能(néng)力理解同類作為與自己一樣的生命,擁有與自己一樣的意(yì)向和精神生活。由於生成式人工智能(néng)具有一種非(fēi)人類的(de)學習能力,在人類的社會文化曆史上出現了一個非人類的學習者,我們不再限於向他人學(xué)習(xí),也可以向人工智能機器學習,生成式人工智能成為人類社會文化發展中的主(zhǔ)動參與者(zhě)。
人類合作交流、相互學習,以及在此基(jī)礎上的(de)文化交融和(hé)行為選擇,這些文化過程的基礎是人類(lèi)之間的相互(hù)信任,而信任需要情緒的參與(yǔ)。有學者(zhě)提出,我們(men)與人工智(zhì)能的(de)關係本質上是(shì)依賴,而不是信任。由於(yú)生成式人工智能的不可(kě)解(jiě)釋性、不可說明性(xìng)和不可信任性(xìng),加之其不具(jù)備情感狀(zhuàng)態,也不能對自己的行為(wéi)負責,人類在與其(qí)交互時,麵對的實際上是一個(gè)無法完全理解的(de)、缺乏情感和規範性的“黑箱”,得到的可能是包含無法(fǎ)證偽的知識信息,這種知識可能會通過人機交(jiāo)互的(de)多次循環被吸收(shōu)到其他對象中,最終作為一種消費信息在人類、人工智能之間傳播流轉(zhuǎn)。由此帶來的潛在(zài)問題是,這些非純正的(de)、無節製的信息消費不僅(jǐn)大量消耗人類的精(jīng)力(lì),加(jiā)劇人類對欲望(wàng)的過度追求,而(ér)且會導致某種特定思維反複強化人類的認知,引發社(shè)會心理的問題同時影(yǐng)響人類文化的多樣性。
人性既堅韌又脆弱(ruò)。心理學的斯坦福監獄實驗展示了人在特定社會角色下可能會迅(xùn)速適應並表現出與其(qí)性格(gé)不符的異(yì)常行為,顯示出人性在(zài)特定人際關(guān)係情境下(xià)的脆弱性。當我們與一個非人類的超級人(rén)工智能長期交互相伴時,必然會影響人類個體的思維認知和情感品格,人(rén)性脆(cuì)弱性被利用的機會顯著增加。交互(hù)主體性重新定義了人機關係,讓我們可以(yǐ)從新的視角來理解人工智能對人性產生的深遠影響。我們對人工智能的關注不應該局限(xiàn)於機器(qì)與人的價(jià)值觀對齊,更應探究其對人性的潛在影響。未來的人工智能將成為我們生活中更加智能、更加貼(tiē)心的夥伴,同時也存在其對人性欲望的過度滿足和扭曲的問題。我(wǒ)們需要確保人工(gōng)智能技術(shù)進步增進人類福祉,而非削弱人性的(de)核心價值。
(作者係國家社科基金重大項目“人類道德行為的進化與社會(huì)文化心理機製(zhì)研究”首席專家(jiā)、2022年度《國家哲學社會科學成(chéng)果文庫》入選者、山西大學科學技術哲學研究中心教授)