大國新村
首頁 > 學術前沿 > 成果首發 > 正文

認知域延展中的安全問題及其應對策略

【摘要】“認知域”指的是認知活動所涉及的內容和場所的集合。長期以來,認知域一直被認為僅局限在大腦之內。然而,越來越多的學者認為,人類認知可以部分地由大腦外的因素構成,于是人類的認知域延展到了大腦之外,并納入了認知技術等要素。在認知域不斷延展的過程中,人們擔心自身的認知域會受到虛假信息的侵擾和他人意志的操控。為了應對認知域延展帶來的安全挑戰,我們應該對認知域中的“人—技”關系保持清醒的認識。同時,政府、專家和個人都應該付諸努力,從倫理法律、技術設計和數字素養等多個方面來保護認知域的安全。

【關鍵詞】認知域 延展認知 認知安全 虛假信息 人機協作

【中圖分類號】G31 【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2023.11.006

【作者簡介】周程,北京大學哲學系教授、博導,北京大學醫學人文學院院長,中國科協-北京大學科學文化研究院副院長。研究方向為科學社會史、科學技術與社會、創新管理與科技政策。主要著作有《科技創新典型案例分析》《福澤諭吉と陳獨秀:東アジア近代科學啓蒙思想の黎明》等。

柏拉圖在《斐德羅篇》(Phaedrus)中描述了蘇格拉底對書寫的看法。蘇格拉底認為,書寫是對記憶的破壞,書寫技術對人類認知產生了負面的影響?,F如今,認知技術以一種更加廣泛且深入的方式進入了人們的生活。人工智能、大型語言模型、腦機接口等高新技術的發展,深刻地影響了人們的認知方式,甚至直接改變了人們的認知范圍,重新塑造了人們的認知活動。因此,有必要重新審視“認知域”(cognitive domain)的含義,理解“認知域”在當下發生的轉變與面臨的風險,研判“認知域”延展對“人—技”關系帶來的影響,并為適應“認知域”的不斷延展準備好應對策略。

認知域的定義及其延展

所謂“認知域”,簡單來說就是人類認知活動所涉及的內容和場所的集合。傳統觀點認為,人類的認知活動都發生在大腦中,大腦就像一臺計算機一樣進行著表征與計算。而技術設備對人類認知內容和認知過程的影響,則主要是通過間接方式實現的。

然而,進入21世紀后,這一關于認知的傳統觀點受到了沖擊。人們發現,語言符號、紙筆工具,乃至一些更復雜的技術設備,例如,智能手機、互聯網等,不僅可以被當作輔助認知的工具,而且還可當作人類認知能力的延伸,成為認知域中的一部分。[1]這些技術不斷挑戰著人們對認知內在主義的看法。于是,以“延展認知”(extended cognition)為代表的認知科學研究綱領逐漸被人們所接受。

延展認知關注環境因素在認知過程中發揮的作用,認為環境因素可以構成認知過程的一部分。為了捍衛這個觀點,安迪·克拉克(Andy Clark)和大衛·查爾莫斯(David Chalmers)提出了“對等性原則”(parity principle),即“如果在我們面對某項任務時,世界的一部分作為一個過程發揮作用,且如果這個過程是在頭腦中完成的,我們會毫不猶豫地將其作為認知過程的一部分,那么世界的這一部分就(正如我們聲稱的那樣)是認知過程的一部分”。[2]換言之,發揮了相同認知功能的外在因素也應該享有和內在因素同等的地位。

克拉克和查爾莫斯曾用“英伽和奧托”(Inga and Otto)的案例來幫助我們更好地理解認知域究竟是怎樣延展的。認知能力正常的英伽想去博物館看展覽,于是她回憶起博物館的位置,并憑借這個信念成功到達博物館;而患有阿爾茲海默癥的奧托也想去看展覽,他的辦法是通過檢索隨身攜帶的筆記本得知博物館的位置,最終也成功地到達博物館。在這兩個案例中,奧托筆記本上的信息發揮了和英伽的生物記憶相同的功能,都構成了各自認知過程的一部分。這樣,奧托的認知過程就延展到了他的筆記本上,他的認知域因而包括了大腦之外的因素。

為了防止認知域過度膨脹,甚至于變得無所不包,克拉克和查爾莫斯列出了對外在因素的幾項限制條件,即依賴性、可通達性、可信賴性、歷史關聯性。[3]雖然關于這些條件的爭論仍舊存在,但是他們至少提供了一套參考標準,能夠幫助我們區分兩種“外部資源”:一種僅僅被我們當作工具,而另一種則被吸收到認知域中。

根據延展認知的觀點,人們可以把外在于大腦的一些因素作為認知內容的載體。這樣,認知內容也就部分地延展到了大腦之外。類似的,延展認知的支持者也認同腦機接口設備是認知的組成部分,應該受到與人類大腦一樣的保護。甚至,人們通過虛擬現實技術完成的認知活動,也與現實世界享有同樣的真實性。[4]這樣,認知域就不再是一個專屬于個人的“黑箱”,而是一個可以被公開揭示、甚至被他人操控的領域。例如,他人可以相對容易地查看已被納入認知域的筆記本、手機等,以此來了解認知域主人的所思所想。如此一來,伴隨認知域的延展,個人認知內容被他人篡改的風險也在增加。在國防領域,“認知域”已被視作與“物理域”“信息域”并列的第三大作戰空間[5]。在大國博弈中,“制腦權”已成為能否取得最終勝利的關鍵變量。在這種情況下,如何正確看待、保護和利用好認知域,就不只是理論問題,也是現實問題。

認知域面臨的安全問題

如今,人機交互日益頻繁,人類的大多數認知活動都已被技術設備廣泛滲透,很難從中區分出純粹內在的認知活動。即使是在獨自冥想這樣的認知活動中,人們的專注力和思考的深度也和周圍環境緊密相關。隨著認知域的不斷延展,個人的認知域安全很容易受到來自外界的威脅。為了保護認知域的安全,人們需要對認知域可能遭遇的侵害保持清醒的認識。

首先,虛假信息容易混入個人的認知域,從而影響人們作出判斷的認知基礎。就拿上述英伽和奧托的例子來說,英伽的記憶存儲在大腦中,別人無法直接閱讀或者破壞英伽的心理內容。相比之下,奧托的筆記本則更容易被人篡改、損毀,因而,筆記本上的信息的真實性變得難以判斷。[6]類似的,比起人們的生物記憶,存儲在手機中的日程表、照片、錄音等信息,似乎也更容易被黑客修改。這意味著人們借助技術設備獲取的信息其實未必可靠。因此,有必要對外在載體上的私人信息采取額外的甄別措施,以保障信息的可靠性。

然而,“深度偽造”(deepfake)或合成媒體(synthetic media)技術,讓原本看似真實可信的公共信息也變得岌岌可危,這也給人類的認知域帶來了沖擊。當下,人們可以用很低的成本把公眾人物的臉替換到各種影視片段中,還可以用人工智能技術模仿知名歌手的聲線創作音樂作品。這些偽造的視頻、音頻往往非常逼真,如果不加以標注就在各種網絡平臺上傳播,很容易讓數以萬計的網民誤以為這是真實發生的事情??梢?,在認知域中,不論是存儲在外在載體上的信息,還是進入大腦之中的信息,都容易混入虛假信息,因而,需要對信息的真實性給予特別關注。

除了刻意編造的虛假信息,認知技術所輸出的無意義信息也會影響人們的認知,使得人們的認知域變得更為混亂。以ChatGPT為代表的大型語言模型(Large Language Models)雖然可以與用戶實時交互,為用戶提供信息,但是它并不能保證信息的準確性。比起上述兩種蓄意造假的例子,ChatGPT有時更像是在“胡說八道”,但這并非是它在有意誤導用戶。原因在于,其工作模式是根據以往的訓練數據,統計出哪個詞匯有最大概率出現在該問題對應的答案中,從而生成回答,但其本身并不能理解語義內容。由于認知主體憑自身認知域中的資源,很難甄別它是在陳述事實還是在編造幻夢,因此,人們可能更難察覺這類信息對各自認知域的侵擾。諸如此類的認知技術正在重新塑造著認知主體的認知過程、認知習慣以及信念集合。最近,ChatGPT還推出了手機應用版本,人們接觸這類工具的便捷度越高,與之交互的程度就會越深,人腦與技術的耦合也就越緊密,以致人們將各類無意義信息納入認知域的可能性大增。

其次,隨著腦機接口等技術的快速發展,自身的認知域更容易遭到他人意志的操控。人們擔心腦機接口這類神經技術大規模推廣后,植入腦中的設備會侵入自己的思想,讓自己的大腦成為科技公司觸手可及的數據庫,甚至受到他人的操控。有學者假設了四種通過腦機接口操控思想的情況:第一,腦機接口在人沒有意識到的時候自動更新了信息,如同步最新的節假日安排;第二,人們自主選擇加入自動更新協議,但實際上并不清楚有什么新信息將被加入自己的認知域中;第三,腦機接口設備自動刪除用戶長期沒有使用的記憶;第四,腦機接口與人深度合作,幫助人類作出最優選擇。[7]在前三種情況中,人們幾乎都不需要施展認知能力,腦機接口設備實際上繞過了認知主體來植入或刪除信息。第四種情況稍顯復雜,腦機接口設備可能會通過壓制認知主體本可能產生的信念,來達成設備認為的最優解,這其實也阻礙了認知主體本身的創造力。

實際上,人們已經潛在地被一些技術所限制,個人認知的自主性也相應地受到了影響。例如,某些網站可能設置了搜索聯想詞,或者安排了搜索結果的順序,或者直接向用戶推送“猜你喜歡”。人們的認知環境被潛在地改變,人們的自主性受到設計者意愿的影響,這無疑也是一種限制人們選擇的方式。一些手機軟件還會刻意增加用戶關閉某些功能的步驟或警示語,以此來影響用戶的自主選擇。如果人們與這些網站、軟件的持續交互足以讓它們被納入人們的認知域,那么這些引導性的設計甚至可以被理解為一種威脅認知自主性的攻擊。

綜上,認知域安全很容易受到虛假信息的侵擾以及他人操控的威脅。這兩類問題本質上都可以歸結為技術的信任問題;換言之,認知技術提供的信息內容和輔助功能缺少明確的真實性和安全性判斷標準,人們不知道應該賦予認知技術多大程度的信任,以及應該依據什么標準來評判通過認知技術獲得的信息是可靠的。為此,我們需要重新梳理和深入考察在延展的認知域中人類與技術的關系究竟呈現出什么樣的維度,以及在此基礎上我們應該如何應對認知域安全面臨的挑戰。

認知域延展中的“人—技”關系

美國技術哲學家唐·伊德(Don Ihde)曾區分出四種典型的“人—技”關系(human-technology relations):一是具身關系(embodiment relations),即技術作為人的工具;二是解釋關系(hermeneutic relations),即技術表征人生活的世界;三是它異關系(alterity relations),即人和技術相互作用;四是背景關系(background relations),即技術成為人類活動的背景。[8]

從延展認知的過程來看,認知主體與認知技術之間不只是單向的具身關系。特別是在延展的認知域中,人們的認知更容易受到認知技術的操控。例如,人們在社交媒體上瀏覽信息、記錄生活、分享經驗,社交媒體儼然成為了人類認知域的延伸。然而,一些商家會利用社交媒體用戶的數據,精準描繪出用戶肖像并投送相關信息,以達成操控人們購物意向的目的。因此,在認知域延展的背景下,我們不應該簡單地把認知技術理解為一種被動的工具。恰恰相反,認知技術正在深刻地重塑著主體的認知過程。

認知域的不斷延展也使得認知主體與認知技術之間并不構成純粹的解釋關系。時至今日,認知技術的體系結構和運行機制日益復雜,甚至專業人士也無法解釋認知技術與世界之間的表征究竟是如何實現的,這意味著認知技術具有了很高的不透明性。例如,當下被大量使用的深度學習(deep learning)技術實際上是一種“基于樣本數據、使用多層神經網絡對模式進行分類的統計技術”[9],其中的神經網絡由輸入、輸出和中間的大量隱藏層構成。這些隱藏層不僅數量眾多,而且不同變量還被賦予了不同的權重,無論是事前推演還是事后回溯都很難將其解釋清楚,這也讓人們懷疑通過認知技術了解到的信息,是否真的構成了對真實世界的準確表征。在認知域延展的背景下,認知域中“不透明的”認知技術,使得人類對世界的認知過程也變得“不透明”,因此,我們也不能認為認知主體利用認知技術就能成功達到解釋世界的目的。

然而,出于對透明性的擔憂而全盤拒斥認知技術的使用并不是一個明智的選擇。其一,在工具層面,認知技術在教育、醫療等領域有望為普通民眾提供低價高效的服務,在國家安全方面其也是一個不可忽視的力量。認知域延展后,認知技術蘊含的巨大經濟價值、戰略價值,只會推動這個領域不斷往前發展。其二,在解釋層面,人們難以對認知技術的透明性達成一致意見。換言之,人們并不清楚,我們究竟需要何種程度的透明性?透明性的參照標準是什么?由誰來評判是否達到了這一標準?

事實上,認知域的延展使得認知主體與認知技術之間的關系,逐漸轉變為“背景關系”與“它異關系”。

一方面,認知技術已經成為認知主體生活經驗的背景,人類無時無刻不處在認知技術的影響中。首先,人類自身的認知過程也并非完全透明,尤其是當人類作出涉及直覺、預感等因素的決定時,人類自己也很難理解相關行為的邏輯結構[10]。因此,要求作為認知背景的技術實現絕對透明是不合理的。其次,保持技術的透明性不應該成為人們維護認知域安全的首要要求。一味追求認知技術的透明性,可能會降低認知技術的復雜度,以至于犧牲輸出結果的準確性。有時人們希望得到的解釋并不是那種冗長的推理過程或詳盡的權重參數,而是高效實用的回應。與其讓認知技術供應商公開它們的設計參數、訓練數據,不如尋找其他方法讓認知技術取信于人,使得延展的認知域中認知主體與其所處的認知背景更加契合。

另一方面,越來越多的認知技術被納入人們的認知域中,這也意味著人類和認知技術的交互越來越深入;認知技術的不斷人格化,使得認知主體與認知技術呈現出“它異關系”。雖然目前大多數人工智能等認知技術只能精于處理特定類型(如文字)、特定領域(如下棋)的問題,但是人類作為人工智能的訓練者,可以將非文字信息轉換成技術可以攝入的資源。同樣的,機器也可以將得到的結果反饋給人類,由人類對此結果進行有意義的解釋。甚至有學者在延展認知的基礎上,提出了“人類延展的機器認知”(Human-Extended Machine Cognition)[11],主張人類也可能被當作實現以機器為基礎的智能的一個部分。最近,埃隆·馬斯克(Elon Musk)創立的“神經鏈接”(Neuralink)公司獲得了美國食品藥品監督管理局(FDA)的審批,可以在人身上進行侵入式腦機接口實驗,這意味著認知主體(大腦皮層)與認知技術(腦機接口)之間的關系即將迎來更為密切的交互與融合,例如,盲人可能將會通過腦機接口“看到”圖像,癱瘓病人也可以運用腦機接口操控機器。這種“賽博格”式的技術革命打破了認知域中主體與技術之間的界限,這就更需要我們以理性的態度看待“人—技”關系在認知域延展過程中的新變革。

因此,認知域中的主體和技術之間應該保持密切合作的關系。認知技術的最終目標不是成為人,所以不應該用人類的標準,或者是高于人類的標準來要求認知技術,甚至限制認知技術發展。在認知域延展的背景下,技術的更新與人類認知的變革相伴相行。例如,讀寫能力提升了人們的交流水平,基于讀寫和計算而制造出的計算機更是將人們的認知能力提升到了更高的水準之上[12]。新技術的誕生勢必沖擊現有的規則秩序,人們擔憂會被技術取代,就像工業革命時期手工業者擔憂機器會侵占自己的工作機會一樣。但是,當時看起來可怖的機器已經融入了人們的生活,當時看來新奇的技術也在創造著新的崗位。人工智能進入人類的認知域之后,不可避免地會引起類似的憂懼。與其只關注技術的陰暗面而選擇停滯不前,人們不妨學會與認知技術共存,及早準備好維護認知域安全的對策,讓認知主體與認知技術充分互動,以實現認知能力的提升。

如何應對認知域延展帶來的安全挑戰

鑒于認知域的延展導致“人—技”關系呈現出“背景關系”與“它異關系”的特點,人們需要根據認知主體與認知技術交互發展的情況,適時調整維護認知域安全的倫理底線與法律規范,將認知域中的非生物因素也納入考慮范圍。人類不能只關注自己生物學意義上的身體,同時也要重視認知域中的技術設備,甚至是虛擬世界中的實體。應對認知域延展帶來的安全挑戰,需要政府、專家、個人等各方面共同努力。

政府層面。在認知域延展中,政府需要通過倫理與法律的規制防止個人的認知域受到他人侵犯。將外部的技術設備納入認知域,意味著需要按照“倫理對等性原則”(ethical parity principle)[13]和“法律對等性原則”(legal parity principle)[14]給予它們同等的倫理與法律地位。有學者直接建議,將對認知技術的破壞視同人身攻擊。[15]

以前文提到的奧托為例,奧托的筆記本里記錄了他每天發生的事情,他對一些事件的看法還有當時的情緒。如果奧托的筆記本被別人偷竊,他的認知能力就會顯著下降。因而,這不應該只被當作一樁個人財物被盜案,還應當視作一種人身攻擊。類似的,在患有阿爾茲海默癥的病人家中,物品的位置、擺放順序可能都是保障患者自如行動的重要支撐;如果被人隨意破壞,攪亂了原有的安置秩序,那么患者的行動能力就會大不如前。這就好比是被迫攝入過量酒精而擾亂了大腦的正常思維,同樣構成了一種不道德的行為。

與此同時,如果人們的認知域享有這樣的保護,那么人們也應該承擔運用認知域內的技術設備侵犯他人帶來的后果。目前的技術設備尚不能作為一個完整的道德行動者,無法承擔全部的道德責任。通過建立嚴格的倫理和法律規范,并遵循權責一致的原則,我們可以確立明確的責任分配機制,這有利于警示人們重視認知環境,維護認知域的安全。

專家層面。認知域延展中“人—技”關系出現的新變化要求人類與認知技術協同發展,這就需要專家在技術設計之初就將與認知域安全相關的倫理問題納入考量。認知域作為一個整體,域內各個要素之間密切交互,構成了一個復雜系統,它要求專家在設計認知產品時,事先就考慮認知技術的目標與價值規范,使之能更好地融入人們的認知域。如果一個認知域內各個部分擁有的目標不同,這個認知域能發揮出的認知水平和行動能力就會受到限制。例如,機器在完成工作要求時可能會無視其造成的潛在傷害。各不同部分之間的分歧會導致整體的認知力、行動力下降。如果專家在設計認知技術設備時就考慮到了人機協作的理念,那么推出的產品會更加契合人類的認知過程,更加易于與人類認知域相融合。

另外,考慮到提供認知技術的公司與個人用戶之間存在著巨大的權力不對等關系,專家需要在企業和公眾之間起到協調作用。大多數用戶作為外行,有時難以清晰地表達自己的訴求,或者無法選擇最符合自身利益的服務方案。用戶即使能說明自己的訴求,也很難左右公司在技術路線方面的規劃。此外,商業公司使用的認知技術本就由于商業機密的原因而不能公開相關的細節,相關的監管手段也難以觸及算法層面。因此,專家應當承擔協調者的角色,調節公司和用戶之間的不對等關系,平衡商業利益和用戶利益,通過不斷改良認知技術產品與用戶之間的互動,提升認知技術設備的使用性能和安全水平,促進認知域內部的交互與認知載體的耦合。

個人層面。隨著認知域的延展,認知技術已經成為了人類生活的背景。人類要想在智能化、自動化、信息化的認知背景中掌握主動權,就需要注重提升自身的“數字素養”(digital literacy),理解并利用好認知技術。

所謂“數字素養”,指的是“理解并利用通過計算機呈現的多種來源、不同形式的信息的能力”。[16]當前,“我國的公民數字素養平均水平不高,特定區域群體的數字素養與技能與其他區域群體存在較大差距”。[17]這不僅要求人們學會運用數字技能滿足信息需求,而且需要人們能夠辨別利用認知技術獲得的信息。就以前文提到的虛假信息和無意義信息所造成的認知威脅為例,一方面,企業可以升級技術手段,從客觀上降低認知域被侵入的可能;另一方面,應盡可能教育公眾提升認知辨別能力,如識別真假字跡、發現換臉視頻中奇怪的表情、人造音頻中不合理的唱法等,以避免虛假信息給認知域帶來侵害。

此外,人們在利用認知技術的同時,還應注重對智能本身的理解與評估。一方面,在人類智能之外還有動物智能、機器智能;通過研究其他的智能,人們可以認識到其他的認知機制,發現人類自身在認知上的優缺點,從而明確可以改善認知能力的方向。而且,每種智能的衡量方式也是不一樣的;當人們的認知域不再是單純的內部因素時,人們也需要改變衡量智能的方式,來評價自己在認知水平上的變化。這意味著針對人類設計的IQ測試需要被替換成可衡量異質系統的多維度評價體系。而挑選衡量標準的需求反過來又要求人們理解其他智能的運行機制。另一方面,人類難免有偏見,人類設計的認知技術設備也是如此。有研究發現,在人們的自然語言中,人們更傾向于將典型的女性名字與家庭詞而不是職業詞配對,將典型的非裔美國人名與令人不悅的詞匯相連,將典型的男性名字與科學、數學詞匯關聯等。[18]因為自然語言中存在這些潛在偏見,人們使用自然語言訓練認知技術設備時,這些偏見自然而然地滲透到了技術設備中。因此,當人們與這些設備發生交互時,可以通過設備輸出的異常結果來認識自己的偏見,并由此能夠更加深入地理解認知域中不同要素之間是如何相互關聯和協同作用的。同時,為了提升認知域的合作質量,人們也應該思考如何向設備輸入高質量的、少偏見的訓練數據,讓整個認知域產出的結果變得相對公正。

結論

認知域包含的不僅僅是人類大腦內部的因素,它還可以囊括人們所使用的認知技術設備,甚至容納社會機構等更多異質性的構成要素。面對認知域的延展,人們在高度重視認知安全問題的同時,應該清楚地認識到認知域延展過程中出現的“人—技”關系新特點。人們需要建立與認知技術合作共存的信心,準備好應對策略。對于政府來說,需要考慮制定規則防止他人侵犯個人的認知域,創造安全的認知環境。對于專家來說,需要在認知技術設備的設計中納入更全面的倫理考量,促進認知域內的人機順暢交互。對于民眾來說,需要提升自己的數字素養,學會用好認知技術,在與認知技術的交互中增強認知能力,實現認知主體和認知技術的協調發展。

(本文系教育部人文社會科學重點研究基地重大項目“當代認知哲學基礎理論問題研究”的階段性成果,項目編號:22JJD720007;北京大學哲學系博士研究生廖新媛、楊軍潔對本文亦有重要貢獻)

注釋

[1]P. Smart, "The Web–Extended Mind," Metaphilosophy, 2012, 43(4).

[2]A. Clark and D. Chalmers, "The Extended Mind," Analysis, 1998, 58(1).

[3]劉曉力:《延展認知與延展心靈論辨析》,《中國社會科學》,2010年第1期。

[4]D. Chalmers, Reality+: Virtual worlds and the problems of philosophy, W. W. Norton & Company, 2022.

[5]D. S. Alberts, "Network centric warfare: current status and way ahead," Journal of Defence Science, 2003, 8(3).

[6]K. Sterelny, "Minds: Extended or scaffolded?" Phenomenology and the Cognitive Sciences, 2021, 9(4).

[7]J. A. Carter. "Varieties of (Extended) Thought Manipulation," in M. J. Blitz and J. C. Bublitz (eds.), The Law and Ethics of Freedom of Thought, Volume 1, Springer International Publishing, 2021, pp. 291–309.

[8]D. Ihde, A phenomenology of technics, Chichester UK: Wiley–Blackwell, 2010.

[9]G. Marcus, "Deep Learning: A Critical Appraisal," ArXiv, 2018.

[ 0]J. Zerilli, et al., "Transparency in Algorithmic and Human Decision–Making: Is There a Double Standard?" Philosophy & Technology, 2019, 32(4).

[11]P. Smart, "Human–extended machine cognition," Cognitive Systems Research, 2018, 49.

[12]A. E. Buchanan, Beyond humanity? The ethics of biomedical enhancement, Oxford University Press, 2011.

[13]N. Levy, Neuroethics: Challenges for the 21st Century, Cambridge University Press, 2007.

[14]M. Blitz, "Freedom of Thoughts for the Extended Mind: Cognitive Enhancement and the Constitution," Wisconsin Law Review, 2010, 4.

[15]J. A. Carter and S. O. Palermos, "Is Having Your Computer Compromised a Personal Assault? The Ethics of Extended Cognition," Journal of the American Philosophical Association, 2016, 2(4).

[16]P. Gilster, Digital literacy, New York: Wiley Computer Pub, 1997.

[17]李正風、王碩:《數字素養、數據權利與數字倫理》,《科普研究》,2022年第6期。

[18]G. M. Johnson, "Algorithmic bias: On the implicit biases of social technology," Synthese, 2021, 198(10).

Extended Cognition: Security Challenges and Strategies

Zhou Cheng

Abstract: The cognitive domain, encompassing the content and space of cognitive activities, has been considered as confined solely to the human brain. However, more and more scholars now argue that human cognition can be partially composed by factors outside of human brains, resulting in the extension of the cognitive domain to include various elements, such as cognitive technology. The concept of extended cognition raises concerns regarding the potential intrusion of false information and manipulation of individuals' cognitive domains. Consequently, addressing the security challenges associated with extended cognition necessitates a comprehensive understanding of the intricate "human-technology relations". Meanwhile, cognitive security requires a collaborative approach involving ethical and legal considerations, technical design, and digital literacy, which should involve joint efforts from governments, experts, and individuals.

Keywords: cognitive domain, cognition extension, cognitive security, false information, man-machine collaboration

[責任編輯:肖晗題]
精品亚洲成a人在线观看_国产精品国产三级国产an_国产精品国产三级国产专不_国产偷国产偷高清精品