文章資訊

ChatGPT 橫空出世,你準備好了嗎?

        OpenAI 推出 ChatGPT 時,曾語重心長地説它「太危險」,這句警世之語當初被認為只是行銷話術,如今 ChatGPT 的身影已經隨處可見。這是一種多功能自動文本產生系統 (ATG),產出的作品仿若真人寫作。雖然目前仍在測試階段,卻已經有數十種前所未見的應用方式,其中一些更是遠超出當初的設想,例如指示 ChatGPT 模擬 Linux Shell 的一般運作,或通過美國知名學府賓大華頓商學院的入學考

        難怪各種溢美之詞都將 ChatGPT 捧上天。無數新創公司都渴望取得這套技術的授權,以進行各式各樣的應用,例如模擬穿越時空與古人對話、探討歷史文獻學習其他語言產生健身計畫撰寫餐廳評論,各種可能任你想像。

        然而,這些技術突破也讓有心人士有機可趁,破壞力顯而易見。只要看前車之鑑,不難想像步步進逼的問題:深偽 (deepfake) 技術產生的影片和音訊技術已經讓人窮於應付,一旦人工智慧大量偽造消息,屆時人類社會面對如海嘯般來襲的假新聞,將毫無招架之力。

OpenAI logo displayed on a phone screen and Microsoft logo displayed on a screen in the background are seen in this illustration photo taken in Krakow, Poland on January 10, 2023. (Photo by Jakub Porzycki/NurPhoto via Getty Images)
NurPhoto via Getty Images

OpenAI 市值數十億的發跡史

        OpenAI 在 2015 年以非營利組織形式成立,由奧特曼 (Sam Altman)、提爾 (Peter Thiel)、霍夫曼 (Reid Hoffman) 和馬斯克 (Elon Musk) 等眾多創投大咖籌資共十億美元幫助組織運作。OpenAI 自命奉行「無私精神」的初衷,主張 AI「應為個人意志的延伸,奉行自由的精神,應該廣為普及,人人可用。」

        翌年,OpenAI 推出首個公測版的 OpenAI Gym 強化學習平台。2018 年,馬斯克辭去該公司的董事一職,理由是 OpenAI 與其特斯拉 (Tesla) 的事業有潛在利益衝突。2019 對 OpenAI 是個忙碌的一年,OpenAI 成立了「有限獲利」的營利子公司 (OpenAI LP),與非營利性質的母公司 OpenAI Inc 區別,微軟也對其注資十億美元。隨後,OpenAI LP 也宣布授權商用產品的計畫。

        2020 年,OpenAI 正式推出文字產生器 GPT-3,可用於「整理法律文件的重點、為客服諮詢提議回覆內容、建議電腦程式碼,還可以用文字玩角色扮演。」OpenAI 還在同年推出了商用 API。

        「著實令人驚艷。」新創公司創辦人 Arram Sabeti 在與 ChatGPT 系統互動後,曾撰文表示:「各家的 AI 語言系統我都試過了,ChatGPT 的邏輯最完整貫通。只要寫下提示,系統就會猜測後續內容,自行合理造句。我叫系統寫出了五花八門的文本,有歌曲、故事、新聞稿、吉他六線譜、訪談、散文和技術手冊,我又喜又懼,好似窺見了未來。」

        2021 年,OpenAI 推出文字轉影像產生器 DALL-E,次年推出 ChatGPT,再度引起媒體熱烈報導。ChatGPT 聊天用戶端是以 GPT-3.5 為基礎打造而成,這也是 GPT 目前最新的版本。2023 年 1 月,微軟與 OpenAI 宣布將繼續合作進行更深入的長期研究,且預計將投入數十億美元資金。後來微軟在 2 月推出了基於 ChatGPT 的次世代 Bing 搜尋引擎

        「在我看來,ChatGPT 擅長產生直逼真人撰寫的文本。」Brandie Nonnecke 博士向 Engadget 表示。她是美國加州大學柏克萊分校 CITRIS 政策實驗室 (CITRIS Policy Lab) 主持人,也是技術政策研究 (Technology Policy Research) 副教授。她說:「讀起來就像真人寫的一樣。有一次我寫作卡關,就用 ChatGPT 來釐清論述,還蠻有幫助的。」

        話雖如此,Nonnecke 也點出 ChatGPT 愛瞎掰的缺點。「系統會引用根本不存在的文章,」她補充。「現階段雖然寫出來的東西很逼真,但還有很大的改進空間。」

什麼是「生成式 AI」?

        OpenAI 在 ATG 領域並非一支獨秀。「生成式 AI」(或簡稱 gen-AI) 是指利用機器學習演算法,根據訓練語料庫中經過標記式的範例資料庫,產生新的內容,不論文字、影像、音訊或影片都可以。這可說是典型不受監督的強化學習系統,而類似系統已用於訓練 Google 的 AlphaGo、網路上常見的歌曲與影片推薦引擎,以及駕駛輔助系統。對比 ATG,有一些模型的訓練方向不同,是旨在以漸進方式,將更高解析度的隨機點狀圖案轉換為影像,比如 Stability AI 的 Stable Diffusion 或 Google 的 Imagen 等,而包含 ChatGPT 在內的 ATG 系統,則會從自己的訓練資料中取出文字段落並混編,產出幾可亂真但仍嫌平庸的文章。

        「這套系統經過巨量文本訓練。」Peter Krapp 博士向 Engadget 指出:「產生的作品離不開輸入資料的平均水準,就是平凡無奇,絕非卓爾不凡、辭藻華美或曠世之作。註定就是差強人意,大概就落在人類語言表達的整體平均水準。」Krapp 博士是現任美國加大爾灣分校的電影暨媒體研究 (Film & Media Studies) 教授。

        如今,生成式 AI 已成為一門大生意。雖然近期有一些誇張的事件站上頭版,比如 Stable Diffusion 開發者因為擅自從 Meta 抓取訓練資料而吃上官司,或是 ChatGPT 通過醫學執照考試 (沒錯,不只考上華頓商學院),但也有不少名列《財富》雜誌五百大企業 (Fortune 500) 的公司,包含 NVIDIA、Meta、Amazon Web Services、IBM 和 Google,都在悄悄地利用生成式 AI 來創造營收。他們已將 AI 進行各種應用,從改善搜尋引擎結果和提議程式碼,到撰寫行銷和廣告內容,無所不包。

A text-based conversation with the Eliza program talking about depression
Wikipedia / Public Domain

ChatGPT 的成功之鑰

        Krapp 博士解釋,早在六七零年代,人類便已開始嘗試讓機器具備溝通能力,語言工作者是應用先驅。「他們發現,若用特定方式來建立對話模型,便能在一定範圍內達到溝通效果。」他說明。「比如,只要知道怎麼和刻板印象中的治療師對話,就能幫電腦建立一套模式,讓電腦模擬治療師的口吻。」Eliza 聊天程式就是這樣誕生的,更成為了隱藏於熱門 Linux 文字編輯器 Emacs 中的自然語言處理 (NLP) 彩蛋。

        這些發展自早期技術的新系統,如今已用來翻譯高檔餐廳菜單、提供手機數位助理功能,還可勝任客服與人交談。問題是,這些 AI 系統要能執行以上功能,必須經過專門訓練才能執行特定工作,看來還需要很長一段時間,才會出現功能較全面的通用 AI。不過,ChatGPT 可就不一樣了:這套系統不必經過特訓,就能輕鬆寫出二流詩作,還能模仿美國前總統川普的口吻,三兩下就產出一份虛構的 Truth Social 網站服務條款。

        ChatGPT 之所以能用一般水準靈活產生文本,是因為它本質上就是聊天機器人。ChatGPT 的設計初衷就是要栩栩如生地模仿人說話,2020 年被爆料之前,就在 Reddit 上和使用者聊了整整一星期。ChatGPT 是以經過監督的學習方法訓練,起初由真人訓練員將既定的雙邊對話內容餵給模型,也就是人類使用者和 AI 代理程式各自該說的內容。等 ChatGPT 學會基本原則,就開始與真人對話,並在每次對話結束後,由訓練員對 ChatGPT 的回應進行評等。以人類主觀角度認定的較佳回答,會在模型內在獎勵系統中得分較高,並成為之後最佳化的方向。如此一來,AI 會變得能言善道,但往往「很像是隨意略讀過維基百科就插話」,更別說進行嚴謹的事實審核了。

        ChatGPT 可說是大舉成功,在推出兩個月後即吸引眾多使用者,月活躍使用者多達一億人,成長速度創紀錄。當然,這部分也歸功於行銷話術奏效,比如在 2020 年用「這東西很危險」的負面形容來吸引大眾目光。Foley & Lardner LLP 律師事務所合夥人 Natasha Allen 向 Engadget 表示:「在我看來,ChatGPT 這麼成功的另一個因素就是容易上手。一般人只要丟幾個詞進去,就可以開始對話。」

        「之前對 AI 沒興趣的人,原本才不關心到底什麼是 ChatGPT。」現在這些人也開始好奇了。Allen 認為,簡單易用是 ChatGPT 的一大好處,讓這套系統變得「迷人又有趣,吸引原先對 AI 技術興趣缺缺的人」。

        「這工具實在厲害。」她承認這點。「它並不完美,顯然還會出錯,但......也能完成七、八成的工作了。」

LONDON, ENGLAND - FEBRUARY 03: In this photo illustration, the OpenAI
Leon Neal via Getty Images

微軟的 ChatGPT 會成為他們新一代的 Tay 嗎?

        即便能完成七八成的工作,剩下的兩三成還是可能出大錯,因為 ChatGPT 不理解混編到句子裡的詞到底是什麼意思,只知道每個詞在統計上的關係。「GPT-3 的能力實在是言過其實,」OpenAI 執行長奧特曼在 2020 年 7 月就曾在推特上寫道:「GPT-3 的確很厲害,但缺點也很明顯,有時還會犯下很可笑的錯誤。」

        這些「可笑」的錯誤也算五花八門,從無意義的比較,像是「鉛筆比烤麵包機重」,到類似 Tay 這種早期的機器人盲目吸收種族歧視用語的問題──好吧,其實目前所有機器人都有這種問題。ChatGPT 甚至曾做出一些鼓勵使用者自殘的回應,對商業和 AI 研究界造成眾多道德困境 (而且不限於「利用 AI 進行的科學研究,應該讓 AI 署名嗎?」這類問題)。

        ChatGPT 極有可能被濫用。我們已看到有人利用 ChatGPT 產生行銷垃圾訊息和真的能夠運作的惡意軟體,也有中學生拿來寫英文作文。不過,等到此技術遍地開花,融入各地使用者的生活後,前面這些都還只是小問題而已。

        「我很擔心,想到現在已經有深偽技術製造的影片和聲音,如果和 ChatGPT 聯手,就能模仿某人的風格,寫出一篇幾可亂真的文章。」Nonnecke 表示:「兩者結合起來,簡直成了一座火藥庫,能把幾可亂真的假訊息炸得滿天飛。」

        她繼續說道:「我認為這簡直是火上加油,因為人各有筆風和口吻,通常深偽技術難以模仿入微,會在小地方露出馬腳,看起來或聽起來就是怪怪的。但是,有了 GPT 之後,產出的內容很容易以假亂真,就像模仿對象自己講出來或寫出來的東西。我想,這會讓深偽技術造成更大的傷害。」

        目前這一代的名人模擬聊天機器人,通常會做出不符事實或史實的模仿,比如說福特 (Henry Ford) 的虛擬人偶不會歧視猶太人,但未來加以改進後,就可能真假難分了。「首先,可以想見這種技術很可能被用來詐騙。」Nonnecke 指出,詐欺犯早已開始使用語音複製軟體來模仿受害者的親友,從他們身上騙錢。

        「既然深偽技術已經出現,目前最大的難題就是如何妥善處理真假難辨的問題。因為你已經分不清楚哪些是事實,哪些是假訊息了。」Nonnecke 表示:「有時,我們把這稱為『騙徒紅利』:既然沒人知道某件事是不是真的,就會讓每件事看起來都有點假,那麼,就沒有什麼事能相信。」

BARI, ITALY - JANUARY 17: In this photo illustration - The Gpt Chat application, installed on a smartphone on January 17, 2023 in Bari, Italy. Chat GPT is a type of artificial intelligence technology that uses natural language processing and machine learning to generate human-like conversations. It is used in a variety of applications, such as customer service chatbots, virtual assistants, and automated customer support systems. (Photo by Donato Fasano/Getty Images)
Donato Fasano via Getty Images

ChatGPT 考進大學

        在學術界,ChatGPT 也鬧得滿城風雨。這款文字產生器曾通過華頓商學院入學考的筆試部分,還有美國醫師執照考試的三個部分,因此一戰成名。面對如此發展,學界的反應神速 (一如學術界遇到新技術時的常見反應,相當驚慌失措),但各有各的辦法。紐約市公立學校體系採取傳統做法,「禁止」使用學生應用程式,不過大概是徒勞無功。至於像 Ethan Mollick 博士這樣的教師,則樂意擁抱新技術,直接在課程計畫中採用。Mollick 博士是知名學府賓州大學華頓商學院的副教授。

        Mollick 博士於 1 月份接受 NPR 訪談時,是這麼說的:「這個改變很突然,對吧?有很多好的部分都要改用不同做法,但我認為,我們可以解決問題,教大家如何在這個有 ChatGPT 的世界寫作。」

        「其實,就算我不要求大家調整,也不可能擋得住這些改變。」他補充。不僅不禁止,他還主動要求學生把 ChatGPT 看成是提示和靈感的來源,幫忙寫報告。

        在加大爾灣分校任教的 Krapp 博士也採取類似做法。「現在,我有幾門課會用 ChatGPT,我會告訴學生:『這一份作業我們用 ChatGPT 來做,看看機器人會有什麼點子?』」他解釋:「我提出五種不同方法,各自有不同的提示或部分提示,然後要學生接著思考『要如何判斷文章是不是真人寫的?我們又能從中學到什麼?』」

ChatGPT 會搶走寫作飯碗嗎?

        今年初,科技新聞網站 CNET 遭踢爆使用自行設計的 ATG 來撰寫整篇財金介紹特稿,從 2022 年 11 月起一共已刊出 75 篇。這些文章理應經過編輯人員「嚴格」的事實查核,確保內容正確,但實際上也只潦潦帶過,因此刊出的文章錯誤連篇,導致 CNET 和母公司 Red Ventures 不得不出面勘誤並更新過半數的文章。

        在見識 CNET 與電腦作家這場災難般的短命邂逅之後,BuzzFeed 執行長 Jonah Peretti 反倒當機立斷,也決定投入 AI 寫作,不久便宣布他的全新出版計畫,採用產出式 AI 來創作比較不易出錯的內容,例如人格測驗。

        這則新聞刊出前幾週,BuzzFeed 才宣布大裁員,以「市場環境困難」為由,請眾多編輯走路。兩者時間點如此相近,難免引人遐想,尤其是目前科技業和媒體業吹起了解僱風,不論大企業營收利潤屢創新高,都不約而同用了相同理由,要員工「共體時艱」。

        新技術搶飯碗已非頭一遭。《紐約時報》專欄作家 Paul Krugman 指出,從前煤礦產業就發生過類似變遷。進入 20 世紀後,礦業需要的勞動力開始大幅萎縮,但主因並非煤炭用量減少,而是因為採礦技術日益先進,只需少許勞動力就能完成相同工作量。相同變化也發生於汽車製造業,生產線上的工人也正紛紛被機器人取代。

        對此,Krugman 的看法是:「AI 會如何衝擊知識型勞工的需求目前還很難預估,因為各領域需求不同,往往依產業和特定工作內容而異。不過,在某些情況,AI 和自動化或許可執行特定的知識密集型工作,而且效率比人類高,因而可能減少對某些知識型勞工的需求。」

        但 Krapp 博士卻不太擔心這個問題。「有些記者表示『很擔心工作開始被數位媒體和數位發行影響。我擅長的撰稿工作,或許不久就會被低成本的電腦寫手取代。』我個人倒不這麼認為,事情不會就這樣發展下去,因為身為人都有心底的需求和渴望,都想要感受到人情味。」

        「[ChatGPT] 確實是很厲害,也很好玩,但我們人類也還過得好好的。」他補上一句。「我們照樣會閱讀,ChatGPT 也還會是提供人類使用、娛樂的介面,但不會長成龐然怪物。」

別怕,一定會有人來拯救我們(應該會有吧?)

        Nonnecke 相信,ChatGPT 咀嚼現實經驗的毒牙終究會被制裁。不論是立法規範或由產業自律,大眾質疑所引起的壓力,總得妥善應對。「其實,我認為兩大黨都會支持這類立法,這點在 AI 領域倒是很有意思。」她向 Engadget 表示:「在資料隱私、資料保護方面的法案,兩大黨通常都會支持。」

        她指出,OpenAI 安全與對齊議題 (Safety and Alignment) 研究員 Scott Aaronson 在 2022 年已提出加密浮水印方案,旨在讓終端使用者能輕鬆辨認由電腦產生的素材,正可作為業界自律的一個例子。

        Aaronson 在自己的部落格中撰文寫道:「基本上,只要 GPT 產出長篇文字,我們就希望文本中的措辭能有一些其他的蛛絲馬跡,能用來證明這是 GPT 的作品。我們只希望讓 GPT 寫出的文章更容易辨認,讓文本更難被誤認為由真人所寫。顯然,這可以避免學術抄襲問題,同樣也能用來防止 GPT 被用於其他目的,例如進行大規模的政治宣傳等。」

        以上的防範措施是否有效,還有待觀察。說到這裡,Nonnecke 不免提高音量:「現在就是像在打地鼠,見一個打一個!這是由業界自己踩下的煞車,至於是否要管制哪一類提示,依然缺乏透明,這就是我很擔心的。」

        「總有一天,會有人拿來為非作歹。」她這樣說。

文章來源:https://chinese.engadget.com/chatgpt-is-suddenly-everywhere-are-we-ready-072938141.html