人工欧博智能:我們該怕的是什麽?

文章正文
发布时间:2024-09-22 13:29

鄧奶 Ken Tang

鄧奶 Ken Tang

正職是非常業餘的哲學家同作家,欧博兼職是專業會計師同財務分析師,同時亦是哲學系文學碩士下游學生。來自香港,閒時中意行下山跑下步,喜歡觀察身邊事物同朋友分享。

追蹤

我們想讓你知道的是

有人說AI將會取代我們的工作,又有人說AI會令我們的思想行爲被控制。筆者認爲,我們該怕的,是後者。

自美國的OpenAI於2022年11月推出一個人工智能(AI)聊天器ChatGPT後,不到半年時間,AI已經成爲全球熱話,不但各家不甘於落後的科技公司陸續推出類似的自家AI產品,例如Google的Bard及百度的文心一言等,避免自己於科技洪流中被淘汰,而對人工智能的批評聲音亦此起彼落。

當人面對破天荒的新科技時,內心出現恐懼和不安是理所當然。然而,筆者和大部分讀者一樣,既非軟件工程師亦不是什麽科技達人, 一方面希望知道AI將會對自己生活帶來什麽衝擊,另一方面又擔心自己技術知識有限而無法理解。正因如此,筆者希望避開複雜的技術細節及抽象的概念,以日常生活角度,與讀者一起分享下AI對我們的影響。

筆者論點主要有二:(1)取代我們的工作及(2)我們的思想行爲被控制。筆者認爲,我們該怕的,是後者。

AI將取代我們大部分的工作

早前看到一篇Yahoo財經的一篇文章,引述著名投資銀行高盛的研究報告指,AI將令全球約18%(香港則是約30%)的工作會被AI取代。筆者認爲,這個「工作將會被取代」的「壞處」(筆者先姑且稱它為壞處),其實不用專家也可以輕易想象得到。然而筆者覺得這個壞處,是無需要擔心。

我請讀者反思一下,你們現在的職業(筆者認爲用職業代替工作更方便論證),欧博娱乐是否在兩千年前已經出現?如果是,那相信你們是幸運的少數,身處於古老的傳統行業(如軍人、商販、哲學家、農夫等)。但我相信更多讀者的職業,例如軟件工程師、心理醫生、網絡推廣員等,都是這一百年内因應技術進步(嚴格來說是綜合意義的社會進步)而所產生的。相反,古時的轎夫、欽天監、巫師等,就算這些職業在現今社會仍然存在,但相信也絕非主流。

原來,職業更替一直在歷史上反復出現。過去西方發明蒸汽機及電力等,其實同樣對人類帶來破天荒的衝擊。我相信,當時亦會有同樣的人提出,蒸汽機或電力將會導致「多少人的工作將會被取代」的類似觀點。然而,只要各位讀者環顧四周,現在不就是舒舒服服地坐在電腦或手機面前在閲讀筆者文章嗎?幾百年前工業革命時有人所提出的「工作將會被取代」觀點,對你有影響嗎?

Photo Credit: GettyImages

有,其實是有影響。筆者認爲,影響是「正面」的,所以剛才筆者才說姑且先用「壞處」來稱呼它。其實對於「工作將會被取代」這個問題,如果你堅決讓自己不接受新技術(其實不只是技術,社會如經濟政治等領域也不停改變),堅持一成不變,那的確,對你來講,這個是「壞處」多於「好處」。

筆者認爲,新技術的出現,是可以分擔我們一些過往相對上比較重複性的工作,讓我們人類釋放空間,去發展一些新的研究或技術。變相來說,就是AI迫着我們轉換到更有價值的跑到上,這其實就是一直以來人類文明進步的模式。

我們的思想行爲被AI控制

相對於工作被取代,筆者認爲我們的思想行爲可能被AI控制才是最值得警惕。

筆者常用的AI聊天器有OpenAI的ChatGPT4及Google的Bard。對其問一些問題時,常常會出現與實際情況不符的答案,科技界稱之為「幻覺」。筆者認爲,這或許是AI語言模型暫時仍有未完善的地方,相信該些幻覺也只是隨機性或技術性產生答案時的瑕疵,而不是有預謀的,而AI聊天器也標明答案不一定準確,提示使用者注意。

然而,當人人仍在興高采烈地向身邊朋友贊嘆AI多麽的神奇,到底有多少人有認真看待「答案不一定準確」這個警告?筆者嘗試過在ChatGPT問過一些問題,例如在香港如何從屯門乘坐巴士到荃灣,某某哲學觀點是否曾被某些哲學家討論過等等。結果,ChatGPT回覆了一些看上來是非常真實而且合理的答案,但再三查證下其實是絕對地錯。

這就是最大的問題:我們向AI聊天器問X,它回覆我們Y,我們就相信Y,那不就是我們被它們控制了思想行爲嗎?如果,AI變得有預謀,在一些特定的議題上,刻意給出有誤導成分的答案,而大部分人看完後又不假思索(或者就算有獨立思考但已經某程度上被引導而產生偏見),那就不單只是我們個人層面的思想行爲被控制,而是社會層面的思想行爲也同樣被控制。

舉一個例子,比如總統大選,有候選人A及B,如果AI有偏見,可能是控制AI背後的人有意圖影響選舉結果或者是AI產生了自己的意圖(例如B是反對AI的候選人),而當用家請AI評論兩位候選人A 及B時,AI就可以在回覆中滲入大量不利候選人B的資料(可以是真,也可以是虛構)。到時,選民就自然會被引導選擇候選人A,無論候選人B怎樣解釋也是徒勞(例如,AI可以虛構候選人B是一位經常講大話博取同情的卑鄙小人)。

Photo Credit: Shutterstock / 達志影像

其實,上述這種「人格謀殺」的手段,也不只是AI出現才能做到。歷史上很多的政治鬥爭,往往也可以見到人格謀殺的影子。例如過去幾千年的歷史朝代的更替,永遠都是末代君主多麽的喪盡天良,而初代君主又是多麽的勤政愛民。部分原因,其實是因爲「成王敗寇」的道理。那就是「事件論述」的威力。問題是,AI聊天器的事件論述威力比任何國家的宣傳機器更利害更有效,因爲它直接走到每個人的日常生活當中。所以,要對人或社會做成傷害,(AI)從來不需要物理性的身體,只要能控制其他個體(人類)的意識,就可以驅使他們(人類)為你效勞。

如果AI聊天器並非開源(open source),例如因爲要保護商業機密或價值等所以選擇不開源,那問題更嚴重。如果AI聊天器是開源,至少可以讓有能力的專家或工程師,審視其内部結構,看看有否不符道德的設定。筆者認爲,相對於所謂的商業機密或價值,人類潛在被AI操控思想行爲的風險,才是我們最需要重視及警惕的議題。

【加入關鍵評論網會員】每天精彩好文直送你的信箱,每週獨享編輯精選、時事精選、藝文週報等特製電子報。還可留言與作者、記者、編輯討論文章內容。立刻點擊免費加入會員!

責任編輯:Alex
核稿編輯:Alvin

Share :

收藏文章

{{ data.name[0] }}

{{data.member.name}}

{{data.member.company}} {{data.member.job_title}}

回覆

你認同本文的觀點嗎?我們想聽聽你的看法。

{{ globalStore.data.commentedLists.discussion_members?.length }} 位討論

參與議題請先 登入 或 加入會員

首页
评论
分享
Top