背景
2023年2月25日 22:48

登上Time封面的ChatGPT,贏了這場競賽

AI聊天機器人ChatGPT破勢而出,意味著什么?

創(chuàng)作、寫代碼、回復郵件等等,讓AI成為自己的主角。

目前,僅僅是個開始......

AI軍備競賽正開啟

隨著生成式對抗網絡(GAN)為代表的深度學習算法的提出和迭代更新,生成式AI已經跨入了新時代。

從2014年直到2022年,AIGC進入了爆炸式發(fā)展階段。

谷歌發(fā)布了文本圖像生成模型Imgen、Parti 、Muse;OpenAI更新了Dall-E 2;Meta的文本生成視頻模型Make-a-Video等。



ChatGPT的誕生,讓人們對人工智能的興趣更加的瘋狂。

這讓那些在人工智能領域投資了數十億美元的科技公司措手不及,并在硅谷引發(fā)了一場激烈的軍備競賽。

短短幾周內,微軟和谷歌已改變了整個企業(yè)戰(zhàn)略,為的就是搶占最新人工智能帶來的先機。

微軟給OpenAI投資數十億美元,并宣布將生成式AI整合到其Office軟件和搜索引擎必應中。

作為回應,谷歌先是宣布進入「紅色代碼」緊急狀態(tài),緊接著發(fā)布AI聊天機器人Bard。



2月7日,微軟CEO納德拉向谷歌發(fā)出了挑戰(zhàn),「一場競賽從今天開始。我們要行動,而且動作要快!

不僅如此,就連華爾街也做出了積極回應,分析師上調了計劃中提到的AI公司的股票。

投資者們紛紛押注生成式AI。

因為它可能像微軟Windows 95或第一代iPhone那樣撼動市場。

這種瘋狂的淘金熱也可能是災難性的。生成式AI就像一個逐漸膨脹的泡泡,說不定哪時破裂了。

由于企業(yè)急于提高技術水平并從中獲利,而對于確保這些工具安全的研究被放在了次要位置。

這是一個淘金熱開始的故事,歷史會告訴我們接下來發(fā)生什么。

OpenAI博了一把

事實上,社交媒體遇到的問題同樣是生成式人工智能需要面對的問題。

多年來,人工智能研究實驗室一直將這些工具的版權保密,同時研究其潛在危險,從錯誤信息、仇恨言論到地緣政治危機。

而這種保守行為一定程度上源于「神經網絡的不可預測性」。

神經網絡靈感來源人類大腦,是現代人工智能所基于的計算范式。

傳統(tǒng)的計算機編程方法依賴于精確的指令集產生可預測的結果,而神經網絡能夠教會自己識別數據中的模式。這些網絡輸入的數據和算力越多,其能力就越強。
2010年代初,硅谷意識到,與傳統(tǒng)編程相比,神經網絡是通往強人工智能的更有希望的途徑。

但問題是,早期AI非常容易模仿其訓練數據中的偏見,輸入錯誤信息或仇恨言論。

當微軟在2016年推出的聊天機器人Tay上線不到24小時,它就在推特上發(fā)布了「希特勒是對的,我恨猶太人」,「女權主義者都應該在地獄里被燒死」消息。

就連2020年,OpenAI推出的GPT-3也有種族偏見等問題。

人工智能熱潮在2020年左右真正開騰飛。神經網絡設計的幾個關鍵性突破,數據的日益增加,以及科技公司愿意為巨大算力買單,助推了這一繁榮。

令人尷尬的是,谷歌、Meta和OpenAI在內的許多公司大多不愿公開自家的前沿模型。

2022年4月,OpenAI發(fā)布了文本到圖像的模型Dall-E2,僅限可信用戶的候補名單。OpenAI稱,這些用戶的使用將幫助它理解和解決Dall-E從其訓練數據中保留的偏見。

盡管截至7月,已有100萬用戶使用 Dall-E,但更人工智能社區(qū)的許多研究人員對 OpenAI 和其他人工智能公司「看而不摸」的做法感到失望。

2022年8月,一家名為Stability AI的倫敦初創(chuàng)公司發(fā)布了一款文本到圖像的工具Stable Disusion,向公眾開放。
一時間,Stable Diffusion很快成為熱門話題。

數百萬用戶被其從零開始創(chuàng)作藝術的能力所吸引,根據用戶給出的不同提示(Prompt),這一工具不斷輸出獲得病毒式傳播。

《2022年人工智能狀況報告》投資者Nathan Benaich稱,「這個工具打開了生成AI的潘多拉魔盒。這讓OpenAI和谷歌感到震驚,因為現在全世界都可以使用他們封閉的工具了!

OpenAI迅速跟進,打開了Dall-E2的大門。緊接著在11月,向公眾發(fā)布ChatGPT。

與此同時,微軟、谷歌和Meta正將這種狂熱發(fā)展到極致。

2月份,谷歌發(fā)布了Bard旨在與ChatGP競爭。

同時,在Meta最近的季度財報電話會議上,CEO小扎宣稱他的目標是讓公司成為生成性人工智能領域的領導者。

而這場AI軍備競賽正向全球推進。國內科技巨頭百度和阿里宣布推出自家的聊天機器人。

在這股熱潮中,技術帶來的錯誤和危害有所增加,強烈反對也隨之增加。

當谷歌Bard在演示中回答錯誤,隨之股價下跌。不僅如此,微軟的必應也容易出錯。

Deepfakes正被用來騷擾人們或傳播錯誤信息。包括Stability AI在內的公司正面臨來自藝術家和版權所有者的訴訟,這些人反對未經許可使用他們的作品來訓練AI模型。

TIME的一項調查發(fā)現,OpenAI 使用時薪不到 2 美元的外包肯尼亞工人來審查有害內容,包括性虐待、仇恨言論和暴力。

盡管當前這些問題令人擔憂,但與如果這場競賽繼續(xù)加速下去可能出現的情況相比,它們就顯得微不足道了。

當前,大型科技公司做出的許多選擇恰恰映射了他們曾經所做的選擇,可以說是一個毀滅性的連鎖反應。

社交媒體是硅谷一項真正改變世界的創(chuàng)新,帶來了第一個寶貴的教訓。

它的出現是為了讓推進人與人之間的聯系,讓社會更加健康,個人更加幸福。

但是它的失敗在于科技公司將其變成「賺錢機器」——慢慢扭曲我們新聞供稿以優(yōu)化參與度;讓我們?yōu)g覽有針對性的廣告。

與此同時,社會不得不去處理下一階段的影響,被破壞的新聞業(yè)務,錯誤信息的增加,極具上升的青少年心理健康危機...

不難看出,人工智能與大型科技產品的整合也將走上同樣的道路。

谷歌和微軟最感興趣的是AI將如何使他們的搜索引擎更有價值,并進行了Bard和必應的演示。

但Hugging Face的首席倫理學家Margaret Mitchell認為,搜索引擎是使用生成式人工智能的「絕對最糟糕的方式」,因為它經常出錯。像ChatGPT這樣的AI的實際優(yōu)勢正被邊緣化,就是把這項技術硬塞進科技巨頭的賺錢機器中。

如果搜索引擎成功整合AI,這種微妙的轉變可能會摧毀許多依賴搜索的企業(yè),無論是廣告流量還是業(yè)務推薦。
微軟CEO納德拉表示,新版必應搜索引擎將為出版商和廣告商帶來更多流量,從而帶來更多收入。

但就像藝術家對人工智能生成作品抵制一樣,許多媒體人士現在擔心的是,未來科技巨頭的聊天機器人會蠶食新聞網站的內容,而不會提供任何回報。

人工智能公司如何讓其項目賺錢的問題也很突出。

目前,AI式生成工具都可以免費使用,為的是排擠競爭對手,并得到風險投資公司的巨額投資補貼。

雖然采取這一策略不成功的公司會耗費資金,但是賭贏了的公司最終會奪得市場優(yōu)勢。

這場競賽中的贏家,必然是OpenAI

每次聊天成本都要花費幾美分或更多,ChatGPT與用戶對話的成本是驚人的。

可以說是微軟的「慷慨解囊」,讓OpenAI有了巨大的競爭優(yōu)勢。