轉自:金融界
本文源自:財聯社
本周,人工智能領域的頭條新聞無疑就是OpenAI和谷歌的產品大對決。
OpenAI公司一貫“喜愛”在競爭對手的重大產品發(fā)布會之前搶先發(fā)布自己的產品,從而搶占新聞焦點,本周也不例外。
OpenAI在此前就給予了公眾很高的期望值,周一(5月13日),該公司如期宣布了GPT-4的升級版,名為GPT-4o(“o”代表omni全方位)。GPT-4o旨在充當手機或平板電腦上的個人助理,具有改進的語音交互功能,能夠解釋和推理設備相機拍攝的照片,擁有更強大的語言翻譯能力,以及更快的響應時間。
GPT-4o背后的技術創(chuàng)新令人印象深刻,該模型是多模態(tài)的,它可以實時對音頻、視覺和文本進行接收、推理,并生成文本、音頻和圖像的任意組合輸出。該模型與過往版本比較,省去了將用戶的聲音轉化為文本并處理的步驟,意味著整個流程更加快速。
GPT-4o還縮短了模型處理特定數量token所需的時間(在英語文本的情況下,一個token通常等于一個半單詞),這也使得該模型比OpenAI此前最佳型號GPT-4 Turbo運行得更快、更便宜。
周二(5月14日),谷歌也連放大招,正面硬剛OpenAI。
在谷歌的I/O開發(fā)者大會上,谷歌宣布了一系列新的人工智能功能和即將發(fā)布的產品,包括Gemini模型的廣泛升級、未來的人工智能助手“Astra”、生成式人工智能賦能谷歌搜索、以及一系列與圖像、音樂、視頻有關的生成式AI工具。
谷歌在會上公布了Gemini 1.5 Pro模型的改進,將100萬tokens的上下文窗口進一步擴大至200萬,并且使其能夠擁有更自然的聲音,更好地理解音頻和圖像,更強的邏輯推理和規(guī)劃能力,以及更好的計算機代碼生成能力。
并且,谷歌還發(fā)布了一款高級視覺和對話響應智能體項目Astra,用于處理音頻、視頻等多模態(tài)的輸入內容。相較于OpenAI的GPT-4o只能處理靜態(tài)圖像,Astra還可以處理視頻。在一段演示視頻中,它能夠通過攝像頭視頻,識別“什么東西能發(fā)出聲音”、“現在身處何地”等指令。不過它的回應存在滯后或延遲,據悉,谷歌未來版本的人工智能個人助理正在通過“Astra”進行開發(fā)。
人工智能助手的“高光時刻”
從OpenAI和谷歌的產品發(fā)布可以看出,科技公司都非常重視人工智能助手的研發(fā),并且,“首個人工智能殺手級應用”的位置已成為硅谷各家的“必爭之地”。
從本周的產品發(fā)布情況來看,OpenAI和谷歌的人工智能助手各有優(yōu)勢。GPT-4o可以直接接收并生成語音,省去了將語音轉化為文本的過程;而Astra則可以處理視頻此類的動態(tài)圖像,這是一個顯著的優(yōu)勢。
這兩個產品的發(fā)布顯然讓硅谷另兩家巨頭蘋果和亞馬遜處于不利地位。他們需要升級語音助手Siri和Alexa,以跟上這些新的競爭對手的能力,否則這些產品將陷入困境。就目前已知信息,亞馬遜投資的Anthropic擁有強大的Claude AI模型可供使用;此前也有報道傳出,蘋果正在與OpenAI談判,以在短期內獲得其技術許可。
不過,這些新的人工智能助手就會是未來的“人工智能殺手級應用”嗎?這個結論目前還沒有定論,完全取決于接下來會發(fā)生什么。
就從目前的人工智能助手的用例來看,它們還稱不上是人類日常生活中無處不在的必備產品,除了翻譯功能以外,幾乎沒有一個是能夠關于幫助人們完成工作的。
有分析指出,當這些助手擁有更多的“代理”屬性時,這種情況可能會改變。若有朝一日,它們能夠真正了解人類的個人偏好,按照人們的喜好完成任務,并且可以在日常生活中幫忙處理一些事情(例如在線購物、填寫保險表格、預訂假期等)時,這時的人工智能助手就很有可能成為一款“殺手級應用”。
谷歌目前表示正在開發(fā)此類產品,但沒有給出產品發(fā)布的時間表;OpenAI也繼續(xù)透露“即將”發(fā)布激動人心的未來公告;下周,微軟將召開Build開發(fā)者大會。