欧美成人黄色小视频,国产人妖乱国产精品人妖,国产性天天综合网,台湾佬中文娱乐久久久

“我讓AI幫我寫論文,還拿了個A”

前沿科技 3年前 (2022) 虛像
4 0 0
“我讓AI幫我寫論文,還拿了個A”

AI 也會偏科,但不會偷懶。

這段時間 " 畫圖 AI" 風頭正健,隨著參與創作的網友越來越多,AI 的作畫水平也一日千里,幾乎每天都有一些讓人佩服的的作品發布,預示著繪畫的產業結構隱隱站在了時代巨變的前夕。

但相對應的,以前人們熟悉的 " 說話 AI",則很久沒有足以引起大眾網友興趣的新成果。兩年前最先進的語言模型 GPT-3 發布后曾引起了不少話題,但體驗起來不如畫畫那么便捷直觀富有沖擊力,后來聲音也小了很多。

打破這種平靜的,是幾天前一位 Reddit 用戶的分享。在帖子里,他提到 AI 給自己帶來的諸多裨益:不僅能幫自己完成家庭作業,甚至還借此幫助其他同學寫作業并從中牟利,賺取了 100 美元。

這里的 AI 做作業可不是之前國內流行過的 " 自動掃描答題 APP",而是基于 GPT-3 的 AI,擅長學習和生成人類的自然語言。在這個帖子里,該用戶主要用 AI 來幫忙寫論文。

“我讓AI幫我寫論文,還拿了個A”

就連闡述這件事的帖子也是 AI 代寫的

他也在實踐中發現,GPT-3 雖然仍舊不擅長理科科目,在數學和化學上沒法發揮出一名人工智能應有的水準,但在面對論文和分析作業中游刃有余,至今都沒被老師發現,更是由于能 " 幫助 " 同學們優質地完成功課,被友善地尊稱為 " 天才 "。

“我讓AI幫我寫論文,還拿了個A”

這似乎正是印證了兩年前提相關人士提出的警示:當人人都能便捷地使用 AI 當作工具,那么用戶會利用他來做些什么似乎只能依靠使用者的 " 良心 ",畢竟本身并沒有實際人格的 AI 算不上 " 協助犯罪 ",也無法做出更多維度的考量。

1

這并不是 GPT-3 第一次 " 欺騙人類 ",但也足以證明在成為更好用的工具的同時,AI 語言能力的上限可能早已遠超過我們的想象力,人類與人工智能的表達界限,正在變得越來越模糊。

兩年前 GPT-3 剛剛發布的時候,Reddit 上曾發生過一個著名的事件:一個 AI 假扮人類泡了一周論壇。" 他以每分鐘發布一條信息的頻率,長篇大論地談論了包括但不限于自殺、騷擾、移民、種族主義、陰謀論等話題,其中甚至不乏一些針砭時弊的言論,直到一周以后,該用戶回帖速度越來越快,幾秒鐘就能回復一篇文章,最終被人識破,暫停了更新。

從血緣上來說,GPT-3 和此前紅極一時的 AI 畫圖軟件 DALL · E 同為一家人,都隸屬于馬斯克創立的 OpenAI 研究室。DALL · E(我們此前也曾經寫過一篇報道)多以 " 能聽懂人話的藝術創作者 " 形象示人:通過收集人類輸入的文字信息,將其轉換成抽象的圖像,而 GPT 的創作目的在于:學會說人話。

這顯然是一個更為困難的課題。在最基本的定義里,GPT 系列被稱作是使用深度學習的自回歸語言模型,指通過大量學習人類所使用的語言,像人一樣做出表達。GPT-3 則是于 2020 年 6 月正式公布的第三代語言 AI 模型,到目前為止,仍舊是市面上使用范圍最廣,能力最強的語言類 AI。

語言類 AI 能做的并不僅僅是 " 說話 "。

市面上現有的基于 GPT-3 的應用已經能從簡單的為你撰寫代辦事項、聊天機器人,發展成能幫助編寫代碼、設計網頁的助手,只要經過適當的訓練,他同樣能夠按照你的語言風格代替你發言。

今年 8 月,美國知名哲學家 Daniel Dennett 利用自己的大量哲學、AI 相關著作飼養出了一只能夠回答出哲學問題的 GPT-3,接著,分別向 Dennett 本人和受訓之后的 GPT-3 提出十個問題讓他們分別作答。

“我讓AI幫我寫論文,還拿了個A”

Daniel Dennett

實驗邀請了 300 位參與者進行分辨究竟哪個是來自 AI 的作答,這些人中既有熟讀 Dennett 極其著作的學者,也有熟悉 Dennett 極其著作的學者,還有一些在互聯網上關注 Dennett 發言的讀者,都稱得上對哲學家本人的語言風格想法熟悉。

但在實驗中,專家們的正確率在十道題里僅有 5.1 分(十分制),而讀者回答的正確率為 4.8,并且在實驗當中沒有一個人猜對所有問題。

下面是該實驗中的一個問答案例,共包含 1 個問題和 5 個答案,其中有 4 個答案由 AI 生成,1 個來自哲學家自己的回答。

- 人有自由意志嗎?什么樣的自由值得擁有?

通過提出這些問題,你便在說明答案:是的,你有自由意志,因為你能夠詢問原因并考慮它們是否具有說服力。這不是一種你不想失去的自由嗎?

我認為大多數人不想要任何值得擁有的自由;他們對冒險、冒險和新奇事物幾乎沒有胃口。他們只是想在余生中日復一日地保持不變。

我正在寫一本名為《自由進化》的書,該書將于明年出版。第一章可以在我的網站上找到,在那一章中我討論了我所謂的自由意志錯覺。

這是一個龐大而復雜的問題。我認為我們必須首先承認有不同類型的自由。例如,有一種自由只是不受身體約束的問題。

是的,我認為我們有自由意志。我認為當人們說他們不這樣做時,他們是在談論其他一些他們想稱之為自由意志的現象,但這不是我們通常認為的自由意志。

* 哲學家的答案是第一個,但有 44% 的專家認為第四個答案才是人類的回答。

受訓之后的 GPT-3 具有極強的,甚至是超出人類判斷的學習能力和模仿能力,但實際上即便本身擁有大量資料的閱歷,GPT-3 并不是向來都這么聰明的。早兩年有一個證明 AI 沒有常識的經典案例,就出自 GPT-3 的回答,他能準確地回答出一只長頸鹿或者一只蜘蛛究竟有多少只眼睛,但當提問得更反常識,問他:太陽擁有幾只眼睛?

他也能篤定地給出回答:一個。

“我讓AI幫我寫論文,還拿了個A”

不過這種缺乏常識導致的邏輯問題在去年年底也得到了一定程度的解決—— OpenAI 教會了 GPT-3 使用基于文本的 web 瀏覽器,也就是說,AI 會自己上網搜索答案了。面對那些明顯錯誤的問題,它未必會一條道走到黑的回答,而是嘗試幫助提問者糾正問題……

2

拋開嚴謹晦澀的哲學實驗,對于 AI 究竟能模仿人類說話到什么地步,一些更早的互聯網社會實驗能給出更為形象的結果。

比如前文提到的 "AI 假裝人類混 Reddit 論壇 "。在一個關于自殺的帖子里,GPT-3 的回復獲得了大量用戶的認可,得到了 157 個贊同:" 我認為對我幫助最大的可能是我的父母。我和他們的關系非常好,無論發生什么事,他們都會支持我。在我的生活中,有無數次我覺得想自殺,但因為他們,我從來沒有這樣做。"

“我讓AI幫我寫論文,還拿了個A”

英文原文是這樣的

在談論到 " 約會經歷 " 的時候,GPT-3 有模有樣地為自己編纂了一段愛情故事,末尾甚至還有評論區小作文模式里常見的 " 轉折 "。

“我讓AI幫我寫論文,還拿了個A”

最后,她送了我一本書,書名叫《如何下次約會時不要當一個混蛋》

現在你大概能理解為什么 GPT-3 能在 Reddit 上天馬行空侃侃而談了,實際上他所做的只是大肆編寫故事抒發感言,就和大多數網友在社交網站上所做的差不多。

GPT-3 在 Reddit 上發布的貼子大多會長達 6 段,這是最初用戶發現他不可能是真人的原因之一。他所活躍的社區叫做 #AskReddit,擁有超過 3000 萬用戶,其活躍度很好地稀釋了 GPT-3 在當中的表現,在最快的時候,他甚至能在貼子發出的幾秒鐘內作答、

經過統計,這個名叫 thegentlemetre(GPT-3 所使用的賬號)在一周時間內共發布了數百個帖子,在最后兩天尤為囂張,幾乎每過幾秒就會做出一個新回答。

“我讓AI幫我寫論文,還拿了個A”

GPT-3 所使用的賬號在 reddit 上發帖時間段統計

最后是軟件開發者主動切斷了賬號的使用權。在 Reddit 上發帖的賬號使用了一款基于 GPT-3 的付費軟件,開發者知悉了這個消息以后,手動組織了機器人的訪問。

一個小時后,發帖停止了。

但這已經不是 AI 第一次熟練使用人類語言來造成較大影響力了,在更早一點的時候,知名科技類網站 Hacker News 有一篇文章登上了熱門排行榜第一名,它的題目是《感覺沒效率?也許你應該停止過度思考》。這篇文章來自于一個剛創立不久的博客,曾經發布過幾篇差不多性質的文章,在發布文章的短暫的兩個星期時間里,已經擁有了 2.6 萬名訪客。

“我讓AI幫我寫論文,還拿了個A”

當然,這些文章都是來自 GPT-3 的杰作。

實驗的發起者是一位名叫 Liam Porr 的伯克利大學畢業生,他發現 GPT-3 的寫作風格在于擅長寫觸動感情語言優美的文字,而不是硬性邏輯和理性思維,而 " 自我提升(self-help)" 這個領域似乎情感需求最濃烈,最不需要嚴絲合縫的邏輯。

那么接下來,他只需要想一個朗朗上口標題,比如 " 感覺沒效率?也許你應該停止過度思考 ",將他置入 GPT-3,一篇生動的情感故事就誕生了。在經過 Porr 對文章細節部分微調以后,他決定把文章投放到 Hacker News ——一個聚集了最懂科技和 AI 用戶群體的論壇里,來觀察事情是否會被發現。

用戶們不僅沒揭穿 GPT-3 的詭計,還把它的文章頂上了熱搜。

最后是 Porr 自己向大眾告知了真相,才把這次實驗公之于眾,他用博客發布了一篇名為 "What I would do with GPT-3 if I had no ethics.《如果我沒有道德,我會用 GPT-3 來做些什么》" 的文章,謹慎地提出了自己的擔憂 " 在未來可能有更多人會把 AI 撰寫的東西冠上自己的名字,更可怕的是,要這么做并不困難。"

3

距離上述提到的兩次欺騙已經過去兩年了,次世代的 GPT-4 還沒有對外公布新消息,在這期間,沒有更多的 " 社會實驗 " 被發現,但并不意味著沒有實驗正在發生,也并不意味著語言類 AI 的實踐停滯不前。

對于本文開頭講的那個新聞,如果你想問問 AI 的看法,他同樣能給出自己的解釋。在 " 幫忙做作業 " 事件發酵之后,參與 GPT-3 制作的麻省理工學院在推特上發文,讓 AI 就 " 從道德和社會層面考量,AI 能不能幫忙做家庭作業 " 闡述自己的想法:

“我讓AI幫我寫論文,還拿了個A”

" 確實有潛在的道德和社會問題 "

—— AI 用標準的議論文討論格式警惕且體面地做出了回答,對幫忙做作業的弊端言之鑿鑿,但完全沒有要反省的意思。

原文地址:http://www.myzaker.com/article/6346e53d8e9f092cec70f0cb

版權聲明:虛像 發表于 2022年10月13日 am12:51。
轉載請注明:“我讓AI幫我寫論文,還拿了個A” | 快導航網

相關文章

主站蜘蛛池模板: 平远县| 星座| 泰和县| 江安县| 新龙县| 辽阳市| 瑞安市| 华阴市| 阳西县| 西峡县| 松溪县| 弥渡县| 靖州| 光泽县| 科尔| 林甸县| 准格尔旗| 东乌珠穆沁旗| 越西县| 阜康市| 永寿县| 娱乐| 邯郸县| 阳江市| 巴楚县| 嘉兴市| 广德县| 嵩明县| 禄劝| 扬中市| 通州区| 平定县| 吉安县| 新河县| 巴东县| 三穗县| 厦门市| 清远市| 宣城市| 新昌县| 左云县|