…91婷婷国产欧美一区二区,…av亚洲欧美av中文日韩av|…欧美日韩国产一区二区三区_★禁漫天堂是哪里可以看?

【十月份意識(shí)形態(tài)學(xué)習(xí)資料】警惕ChatGPT加劇社會(huì)意識(shí)形態(tài)“板結(jié)”

“過度依賴ChatGPT技術(shù),會(huì)將‘常人’的意見建制化與機(jī)械化,使社會(huì)意識(shí)形態(tài)‘板結(jié)’現(xiàn)象更為嚴(yán)重,并加劇人類‘自欺’現(xiàn)象的泛濫。”近日,在復(fù)旦大學(xué)慶祝建校118周年系列學(xué)術(shù)報(bào)告中,該校哲學(xué)學(xué)院教授徐英瑾以《從人工智能哲學(xué)的角度看ChatGPT》為題,剖析了ChatGPT技術(shù)可能存在的弊端。

運(yùn)用人類語言順暢聊天,并非認(rèn)定智能的必要條件

在史蒂文·斯皮爾伯格導(dǎo)演的電影《人工智能》中,一對(duì)因車禍痛失愛子的夫妻收養(yǎng)了人工智能“大衛(wèi)”。在被人類養(yǎng)育的過程中,大衛(wèi)漸漸產(chǎn)生了“我到底是一個(gè)機(jī)器,還是一個(gè)人”的困惑。

這背后隱含了一個(gè)深刻的哲學(xué)問題——機(jī)器能夠思考嗎?正是這個(gè)疑問,當(dāng)年引發(fā)了徐英瑾對(duì)人工智能的學(xué)術(shù)興趣。

“哲學(xué)的一大特點(diǎn)是思考大問題、澄清大問題。”徐英瑾將哲學(xué)形象地比作“爬山虎”,認(rèn)為哲學(xué)可通過“X+”的方式附著在數(shù)學(xué)、物理學(xué)等諸多學(xué)科上,通過提供反思獲得養(yǎng)料,但究其根本,哲學(xué)仍需要回到形而上學(xué),接受哲學(xué)“本部”的指令。

探討和理解人工智能,首先要回歸對(duì)于“智能”這一概念的辨析。徐英瑾從輸入與輸出之間的映射關(guān)系切入,介紹了“人工智能之父”阿蘭·圖靈提出的行為主義標(biāo)準(zhǔn)。判斷一物是否有言語行為從而認(rèn)定其是否智能,這便是著名的圖靈測(cè)試原理。

沒有通過圖靈測(cè)試,是否仍有可能被認(rèn)定為人工智能?徐英瑾以不通現(xiàn)代語言的土著、善于筑巢的鳥類以及設(shè)想中的外星人為例,提出與人類順暢溝通的言語行為并非認(rèn)定智能的必要條件,而只是充分條件。

對(duì)于人工智能的發(fā)展,社會(huì)各界的觀點(diǎn)目前大致可分為樂觀論、悲觀論和泡沫論三類。支持“泡沫論”的華裔科學(xué)家、美國(guó)斯坦福大學(xué)教授李飛飛曾說,不要高估現(xiàn)在人工智能的發(fā)展水平,從物理學(xué)角度看人工智能,它目前還處于前伽利略階段。對(duì)此,徐英瑾表示贊成。

真正識(shí)別人類精神內(nèi)核,人工智能仍在路上

“理解ChatGPT的本質(zhì)并不困難。”徐英瑾介紹,Chat(聊天)一詞,在人工智能領(lǐng)域地位特殊,這源于圖靈測(cè)試的一項(xiàng)發(fā)明——早已出現(xiàn)的“聊天盒(chatbox)”技術(shù)。而ChatGPT作為一種大型語言模型,是“傳統(tǒng)神經(jīng)元網(wǎng)絡(luò)技術(shù)+深度學(xué)習(xí)技術(shù)”的進(jìn)階版,通俗地說,就是通過數(shù)學(xué)建模建造出一個(gè)簡(jiǎn)易的人工神經(jīng)元網(wǎng)絡(luò)結(jié)構(gòu)。

盡管ChatGPT的語言通順程度和機(jī)器翻譯水平令人贊嘆,但談到這種模型與人類的根本區(qū)別,徐英瑾指出,人工智能的進(jìn)步,實(shí)際上是統(tǒng)計(jì)學(xué)意義上的進(jìn)步,是不斷迭代的大規(guī)模數(shù)據(jù)集和人工語料訓(xùn)練“野蠻投入”的結(jié)果。因此,縱使ChatGPT看到“路遙知馬力”后能接上“日久見人心”,但它并不能真正理解中文詩(shī)詞的精妙內(nèi)涵。

從海德格爾哲學(xué)的角度看,這種人工智能系統(tǒng)訓(xùn)練方式不得不把“常人”的意見建制化與機(jī)械化,由此使得社會(huì)意識(shí)形態(tài)的“板結(jié)”現(xiàn)象變得更為嚴(yán)重。換言之,從機(jī)器的視角看,一個(gè)正確的意見就是被大多數(shù)人所認(rèn)可的意見,因此,少數(shù)“異類”提出的“離經(jīng)叛道”之說在技術(shù)上就會(huì)被過濾。

“這需要我們提高警惕。”徐英瑾強(qiáng)調(diào),“假若ChatGPT技術(shù)出現(xiàn)在托勒密的時(shí)代,哥白尼的‘日心說’恐怕永遠(yuǎn)會(huì)被判定為錯(cuò)誤答案。”

人工智能訓(xùn)練與當(dāng)下總是存在時(shí)間差,無法面對(duì)未來,是ChatGPT這類人工智能的最大瓶頸所在。徐英瑾表示,過度依賴ChatGPT,可能會(huì)讓人喪失反思力與對(duì)未來的把握能力,陷入過度“自欺”的狀態(tài)。

人工智能未來到底走向何處?在徐英瑾看來,要想真正走通人工智能這條路,需要在結(jié)合節(jié)儉性算法與推理引擎的基礎(chǔ)上,兼顧哲學(xué)思維帶來的“破”與“立”。無論人工智能變得多聰明,適應(yīng)與滿足人類發(fā)展的需要是根本指向。大數(shù)據(jù)的訓(xùn)練很難讓機(jī)器對(duì)語境形成精準(zhǔn)識(shí)別,如何突破語料的偽裝,真正識(shí)別人類的精神內(nèi)核,人工智能仍在路上。

來源:中國(guó)科學(xué)報(bào)