6個月前,幾乎隻有科研人員在關注大型語言模型的發展。
但去年年底ChatGPT的推出,給全世界帶來了重磅炸彈:機器現在能夠以一種與人類幾乎沒有區別的方式進行交流。
它們能夠在幾秒鐘內寫出文字,甚至是編寫各大領域的代碼,而且質量往往非常高。
這個月,GPT-4的推出進一步表明,人工智能正在以流星般的速度進步,而且可能將像其他技術一樣從根本上改變人類社會。
在未來,人工智能極有可能將一系列工作任務自動化,在白領群體中,這一現象會尤為常見。
放在以前,這幾乎是不可能的。
但是,技術進步的同時,無疑也給人類帶來了新的難題。
如何確保個人不會濫用技術?如何保護用戶的隱私?這些問題,都亟待解決。
↑GPT-4
泄露用戶聊天記錄標題
ChatGPT關閉一天後『殘缺版』上線
據報道,當地時間周一上午,OpenAI暫時關閉ChatGPT服務,理由是公司收到了一個錯誤報告,稱ChatGPT允許一些用戶看到其他用戶聊天記錄的標題。
OpenAI的一位發言人告訴外媒記者,用戶聊天記錄的標題通常出現在ChatGPT網頁左側。
雖然泄露了標題,但用戶具體的對話內容是不可見的。
該發言人說,公司發現這一錯誤後,ChatGPT被暫時禁用。
『一個未命名開源軟件的一個錯誤導致了這個問題。
公司仍在調查確切的原因』
周一晚間,ChatGPT重新上線,但用戶的聊天記錄仍然丟失。
『歷史記錄暫時不可用。
我們正在努力盡快恢復這一功能』聊天頁面顯示。
在周一晚間的聲明中,發言人也說,『ChatGPT現在已經恢復在線,我們正在努力恢復聊天記錄』
此次意外出現後,許多人不禁開始擔憂,如何防止有人對人工智能進行惡意破壞或者入侵?一個小小的安慰是,OpenAI和其他大公司都意識到,這些人工智能可能被人利用,用於發送垃圾郵件、傳播錯誤信息、創建惡意軟件、進行有針對性的騷擾。
OpenAI首席執行官薩姆·奧特曼此前就曾警告稱,他擔心政府行動不夠迅速,無法圍繞人工智能推出限制性政策。
實際上,ChatGPT推出後,谷歌、蘋果、Meta、百度和亞馬遜等公司也不甘落後,希望自家的人工智能可以盡快進入市場,並且插入到每一個可能的應用和設備上。
例如,ChatGPT已經插入在了Bing搜索引擎中,而且很快就會出現在其他地方,比如車裡、手機裡、電視上。
也許在激烈的市場競爭下,各大公司會將更多注意力放在制定預防性措施上。
大型語言模型生產成本越來越低
斯坦福大學不到600美元『復制』了GPT-3.5
目前看來,ChatGPT等大型語言模型的生產成本會越來越低。
斯坦福大學近日的Alpaca模型就是一個很好的例子。
在許多任務上,Alpaca的表現與ChatGPT十分相似。
據悉,Alpaca建立在一個開源的語言模型上,訓練成本不到600美元。
斯坦福大學的一個研究小組從Meta的開源LLaMA 7B語言模型開始。
該小組使用GPT-3.5給LLaMA 7B提供了一套關於如何完成其工作的指令。
接下來,他們對產生的Alpaca模型進行了測試,並且將它與ChatGPT在各種領域《包括電子郵件寫作、社交媒體和生產力工具》的表現進行對比。
在這些測試中,Alpaca贏得了90項,ChatGPT贏得了89項。
『鑒於模型規模小,數據量不大,我們對這一結果相當驚訝』該團隊寫道,『除了利用靜態評估集,我們還對Alpaca模型進行了交互式測試,發現Alpaca在不同的輸入集上往往表現得與GPT-3.5類似。
我們承認,我們的評估在規模和多樣性方面可能是有限的』
該團隊指出,他們還沒有對模型進行微調,不能保證其安全無害。
『如果我們繼續尋求優化的話,可能會更便宜』
紅星新聞記者 徐緩 實習記者 梁宏
編輯 郭莊 責任編輯 魏孔明
《下載紅星新聞,報料有獎!》