hao86下載站:值得大家信賴的游戲下載站!
網(wǎng)站導(dǎo)航
【#區(qū)塊鏈# #谷歌DeepMind聯(lián)手復(fù)仇!Jeff Dean、Hassabis萬(wàn)字長(zhǎng)文總結(jié)2023絕地反擊#】
來(lái)源:新智元
圖片來(lái)源:由無(wú)界 AI生成
剛剛,谷歌DeepMind首席科學(xué)家Jeff Dean,首席執(zhí)行官Demis Hassabis兩大佬聯(lián)手發(fā)布了2023人工智能領(lǐng)域超權(quán)威的谷歌年度研究總結(jié)。
Google DeepMind,交卷!
剛剛,Jeff Dean和Hassabis聯(lián)手發(fā)文,一同回顧了Google Research和Google DeepMind在2023年的全部成果。
這一年開年,比起風(fēng)靡全球的ChatGPT,谷歌看上去輸慘了。當(dāng)時(shí),數(shù)不清的資本熱錢向著OpenA流去,OpenAI的市值、知名度瞬間飆至前所未有的高度。
4月,陷入被動(dòng)的谷歌放出終極大殺招:谷歌大腦和DeepMind正式合并!「王不見王」的兩大部門驚人合體,Jeff Dean和Hassabis終于聯(lián)手。
5月,谷歌在I/O大會(huì)上一雪前恥。全新的PaLM 2反超GPT-4,辦公全家桶炸裂升級(jí),Bard直接史詩(shī)級(jí)進(jìn)化。
12月,谷歌深夜放出了復(fù)仇殺器Gemini,最強(qiáng)原生多模態(tài)直接碾壓了GPT-4。雖然在產(chǎn)品demo上有加工制作的成分,但不可否認(rèn),谷歌已經(jīng)把全世界的多模態(tài)研究推至前所未有的高度。
讓我們看一看,谷歌的諸位神人們是怎樣團(tuán)結(jié)在一起,打響23年的復(fù)仇之戰(zhàn)的。
這一年,生成式AI正式進(jìn)入了大爆發(fā)。
2月,谷歌緊急推出了Bard,慢于OpenAI兩個(gè)月推出了自己的AI聊天機(jī)器人。
5月,谷歌在I/O大會(huì)上宣布了積累數(shù)月和數(shù)年的研究和成果,包括語(yǔ)言模型PaLM 2。它整合了計(jì)算優(yōu)化擴(kuò)展、改進(jìn)的數(shù)據(jù)集組合和模型架構(gòu),即使在很高級(jí)的推理任務(wù)中,表現(xiàn)也很出色。
針對(duì)不同目的對(duì)PaLM 2進(jìn)行微調(diào)和指令調(diào)整后,谷歌將其集成到了眾多Google產(chǎn)品和功能中,包括:
1. Bard
現(xiàn)在,Bard能支持40多種語(yǔ)言和230多個(gè)國(guó)家和地區(qū),在日常使用的Google工具(如Gmail、Google地圖、YouTube)中,都可以使用Bard查找信息。
2. 搜索生成體驗(yàn)(SGE)
它用LLM重新構(gòu)想如何組織信息以及如何幫用戶瀏覽信息,為谷歌的核心搜索產(chǎn)品創(chuàng)建了更流暢的對(duì)話式交互模型。
3. MusicLM
這個(gè)由AudioLM和MuLAN提供支持的文本到音樂(lè)模型,可以從文本、哼唱、圖像或視頻、音樂(lè)伴奏、歌曲中制作音樂(lè)。
4. Duet AI
Google Workspace中的Duet AI可以幫助用戶創(chuàng)作文字、創(chuàng)建圖像、分析電子表格、起草和總結(jié)電子郵件和聊天消息,總結(jié)會(huì)議等。Google Cloud中的Duet AI可以幫助用戶編寫、部署、擴(kuò)展和監(jiān)控應(yīng)用,以及識(shí)別和解決網(wǎng)絡(luò)安全威脅。
文章地址:https://blog.google/technology/developers/google-io-2023-100-announcements/
繼去年發(fā)布文本到圖像生成模型Imagen之后,今年6月,谷歌又發(fā)布了Imagen Editor,它提供了使用區(qū)域掩碼和自然語(yǔ)言提示編輯生成圖像的功能,從而對(duì)模型輸出進(jìn)行更精確的控制。
隨后,谷歌又發(fā)布了Imagen 2,它通過(guò)專門的圖像美學(xué)模型改進(jìn)了輸出,這個(gè)圖像美學(xué)模型參考了人類對(duì)良好照明、取景、曝光和清晰度的偏好。
10月,谷歌推出了Google搜索的一項(xiàng)新功能,幫助用戶練習(xí)口語(yǔ)、提高語(yǔ)言技能。
實(shí)現(xiàn)這一功能的關(guān)鍵技術(shù),就是和谷歌翻譯團(tuán)隊(duì)合作開發(fā)的一種全新深度學(xué)習(xí)模型,名為Deep Aligner。
與基于隱馬爾可夫模型(HMM)的對(duì)齊方法相比,這個(gè)單一的新模型極大提高了所有測(cè)試語(yǔ)言對(duì)的對(duì)齊質(zhì)量,將平均對(duì)齊錯(cuò)誤率從25%降低到5%。
11月,谷歌與YouTube合作發(fā)布了Lyria,這是谷歌迄今為止最先進(jìn)的AI音樂(lè)生成模型。
12月,谷歌推出了Gemini,這是谷歌最強(qiáng)大、最通用的AI模型。
從一開始,Gemini就被構(gòu)建為跨文本、音頻、圖像和視頻的多模態(tài)模型。
Gemini有三種不同尺寸,Nano、Pro和Ultra。Nano是最小、最高效的模型,用于為Pixel等產(chǎn)品提供設(shè)備端體驗(yàn)。Pro模型功能強(qiáng)大,最適合跨任務(wù)擴(kuò)展。Ultra模型是最大、性能最強(qiáng)的模型,適用于高度復(fù)雜的任務(wù)。
根據(jù)Gemini模型的技術(shù)報(bào)告,Gemini Ultra的性能超過(guò)了32個(gè)廣泛使用的學(xué)術(shù)基準(zhǔn)中的30個(gè)最新結(jié)果。
Gemini Ultra的得分為 90.04%,是第一款在MMLU上表現(xiàn)優(yōu)于人類專家的模型,并在新的MMMU基準(zhǔn)測(cè)試中獲得了59.4%的最高分。
在AlphaCode的基礎(chǔ)上,谷歌推出了由Gemini的專用版本支持的AlphaCode 2,這是第一個(gè)在編程競(jìng)賽中取得中位數(shù)水平表現(xiàn)的AI系統(tǒng)。
跟原始AlphaCode相比,AlphaCode 2解決的問(wèn)題為1.7倍以上,表現(xiàn)要優(yōu)于85%的參賽者。
同時(shí),Gemini Pro模型的加持讓Bard也獲得了大升級(jí),理解、總結(jié)、推理、編碼和計(jì)劃能力都大大提高。
在八項(xiàng)基準(zhǔn)測(cè)試中的六項(xiàng)中,Gemini Pro的表現(xiàn)都優(yōu)于GPT-3.5,包括LLM的關(guān)鍵標(biāo)準(zhǔn)之一MMLU和衡量小學(xué)數(shù)學(xué)推理的GSM8K。
明年初,Gemini Ultra也會(huì)引入Bard,屆時(shí)必將引發(fā)全新的尖端AI體驗(yàn)。
而且,Gemini Pro也可用于Vertex AI,這是Google Cloud的端到端 AI 平臺(tái),使開發(fā)人員能夠構(gòu)建處理文本、代碼、圖像和視頻信息的應(yīng)用程序。
應(yīng)用程序,可以處理文本、代碼、圖像和視頻信息的應(yīng)用程序。Gemini Pro 也于 12 月在 AI Studio 中推出。
可以看到,Gemini能夠做到的事情包括但不限于——
解鎖科學(xué)文獻(xiàn)中的見解。
擅長(zhǎng)競(jìng)爭(zhēng)性編程。
處理和理解原始音頻。
Gemini可以回答為什么這個(gè)菜還沒(méi)炒熟:因?yàn)殡u蛋是生的
解釋數(shù)學(xué)和物理中的推理。
了解用戶意圖,提供定制體驗(yàn)。
除了在產(chǎn)品和技術(shù)方面的進(jìn)步外,這一年谷歌也在機(jī)器學(xué)習(xí)和AI研究的更廣泛領(lǐng)域,取得了許多重要進(jìn)展。
如今最先進(jìn)的機(jī)器學(xué)習(xí)模型,核心架構(gòu)便是谷歌研究人員在2017年開發(fā)的Transformer架構(gòu)。
起初,Transformer是為語(yǔ)言而開發(fā)的,但如今,它已被證明在計(jì)算機(jī)視覺、音頻、基因組學(xué)、蛋白質(zhì)折疊等各種領(lǐng)域都有極大作用。
今年谷歌在擴(kuò)展視覺Transformer方面的工作,在各種視覺任務(wù)中都達(dá)到了SOTA,還能用于構(gòu)建功能更強(qiáng)大的機(jī)器人。
擴(kuò)展模型的多功能性,需要執(zhí)行更高層次和多步驟推理的能力。
今年,谷歌通過(guò)幾個(gè)研究接近了這個(gè)目標(biāo)。
例如,算法提示(algorithmic prompting)的新方法,通過(guò)演示一系列算法步驟來(lái)教語(yǔ)言模型推理,然后模型可以將其應(yīng)用于新的上下文中。
這種方法將中學(xué)數(shù)學(xué)基準(zhǔn)的準(zhǔn)確率從25.9%提高到了61.1%。
通過(guò)提供算法提示,我們可以通過(guò)上下文學(xué)習(xí)來(lái)教模型算術(shù)規(guī)則
在視覺問(wèn)答領(lǐng)域,谷歌與UC伯克利的研究人員合作,通過(guò)將視覺模型與語(yǔ)言模型相結(jié)合,使其更好地回答復(fù)雜的視覺問(wèn)題——「馬車在馬的右邊嗎?」
CodeVQA方法的圖示。首先,大語(yǔ)言模型生成一個(gè)Python程序,該程序調(diào)用表示問(wèn)題的可視化函數(shù)。在此示例中,使用簡(jiǎn)單的VQA方法來(lái)回答問(wèn)題的一部分,并使用對(duì)象定位器來(lái)查找所提及對(duì)象的位置。然后,程序通過(guò)組合這些函數(shù)的輸出來(lái)生成原始問(wèn)題的答案
其中語(yǔ)言模型被訓(xùn)練為通過(guò)合成程序執(zhí)行多步驟推理,來(lái)回答視覺問(wèn)題。
為了訓(xùn)練用于軟件開發(fā)的大型機(jī)器學(xué)習(xí)模型,谷歌開發(fā)了一個(gè)名為DIDACT的通用模型。
它了解軟件開發(fā)生命周期的方方面面,可以自動(dòng)生成代碼審查注釋、響應(yīng)代碼審查注釋、為代碼片段提出性能改進(jìn)建議、修復(fù)代碼以響應(yīng)編譯錯(cuò)誤等等。
與谷歌地圖團(tuán)隊(duì)的多年合作中,谷歌擴(kuò)展了逆強(qiáng)化學(xué)習(xí),并將其應(yīng)用于為超過(guò)10億用戶改進(jìn)路線建議的世界級(jí)問(wèn)題。
使用RHIP逆強(qiáng)化學(xué)習(xí)策略時(shí),Google地圖相對(duì)于現(xiàn)有基準(zhǔn)的路線匹配率有所改進(jìn)
這項(xiàng)工作最終使全球路線匹配率相對(duì)提高了16-24%,確保路線更好地符合用戶偏好。
谷歌也在繼續(xù)研究提高機(jī)器學(xué)習(xí)模型推理性能的技術(shù)。
在研究神經(jīng)網(wǎng)絡(luò)中剪枝連接的計(jì)算友好方法時(shí),團(tuán)隊(duì)設(shè)計(jì)出一種近似算法,來(lái)解決計(jì)算上難以解決的最佳子集選擇問(wèn)題,該算法能夠從圖像分類模型中修剪70%的邊緣,并且仍然保留原始模型的幾乎所有精度。
原始網(wǎng)絡(luò)與修剪后的網(wǎng)絡(luò)
在加速設(shè)備端擴(kuò)散模型的過(guò)程中,谷歌對(duì)注意力機(jī)制、卷積核和操作融合進(jìn)行各種優(yōu)化,以便在設(shè)備上運(yùn)行高質(zhì)量的圖像生成模型。
現(xiàn)在只需12秒,就能在智能手機(jī)上生成「被周圍花朵包圍的可愛小狗的逼真高分辨率圖像」。
移動(dòng)GPU上的LDM的示例輸出,prompt:「一張可愛的小狗的照片逼真的高分辨率圖像,周圍有花朵」
語(yǔ)言和多模態(tài)模型的進(jìn)步,也有利于機(jī)器人研究工作。
谷歌將單獨(dú)訓(xùn)練的語(yǔ)言、視覺和機(jī)器人控制模型組合成PaLM-E(一種用于機(jī)器人的具身多模態(tài)模型)和Robotic Transformer 2(RT-2)。
這是一種新穎的視覺-語(yǔ)言-行動(dòng)(VLA) 模型,它從網(wǎng)絡(luò)和機(jī)器人數(shù)據(jù)中學(xué)習(xí),并將這些知識(shí)轉(zhuǎn)化為機(jī)器人控制的通用指令。
RT-2架構(gòu)和訓(xùn)練:在機(jī)器人和網(wǎng)絡(luò)數(shù)據(jù)上共同微調(diào)預(yù)訓(xùn)練的視覺語(yǔ)言模型。生成的模型接收機(jī)器人攝像頭圖像,并直接預(yù)測(cè)機(jī)器人要執(zhí)行的動(dòng)作
此外,谷歌還研究了使用語(yǔ)言來(lái)控制四足機(jī)器人的步態(tài)。
SayTap使用腳部接觸模式(例如,插圖中每只腳的0和1序列,其中0表示空中的腳,1表示地面的腳)作為橋接自然語(yǔ)言用戶命令和低級(jí)控制命令的接口。通過(guò)基于強(qiáng)化學(xué)習(xí)的運(yùn)動(dòng)控制器,SayTap允許四足機(jī)器人接受簡(jiǎn)單直接的指令(例如,「緩慢向前小跑」)以及模糊的用戶命令(例如,「好消息,我們這個(gè)周末要去野餐!」),并做出相應(yīng)的反應(yīng)
同時(shí)探索了通過(guò)使用語(yǔ)言來(lái)幫助制定更明確的獎(jiǎng)勵(lì)函數(shù),以彌合人類語(yǔ)言和機(jī)器人動(dòng)作之間的差距。
語(yǔ)言到獎(jiǎng)勵(lì)系統(tǒng)由兩個(gè)核心組件組成:(1) 獎(jiǎng)勵(lì)翻譯器和 (2) 運(yùn)動(dòng)控制器。Reward Translator將來(lái)自用戶的自然語(yǔ)言指令映射到表示為python代碼的獎(jiǎng)勵(lì)函數(shù)。運(yùn)動(dòng)控制器使用后退水平優(yōu)化來(lái)優(yōu)化給定的獎(jiǎng)勵(lì)函數(shù),以找到最佳的低級(jí)機(jī)器人動(dòng)作,例如應(yīng)施加到每個(gè)機(jī)器人電機(jī)的扭矩量。
由于預(yù)訓(xùn)練數(shù)據(jù)集中缺乏數(shù)據(jù),LLM無(wú)法直接生成低級(jí)機(jī)器人動(dòng)作。團(tuán)隊(duì)建議使用獎(jiǎng)勵(lì)函數(shù)來(lái)彌合語(yǔ)言和低級(jí)機(jī)器人動(dòng)作之間的差距,并從自然語(yǔ)言指令中實(shí)現(xiàn)新穎的復(fù)雜機(jī)器人運(yùn)動(dòng)
在Barkour中,團(tuán)隊(duì)對(duì)四足機(jī)器人的敏捷性極限進(jìn)行了基準(zhǔn)測(cè)試。
幾位狗狗被邀請(qǐng)來(lái)參與障礙賽,結(jié)果顯示:小型犬能在約10秒內(nèi)完成障礙賽,機(jī)器狗一般要花20秒左右
設(shè)計(jì)高效、穩(wěn)健和可擴(kuò)展的算法始終是谷歌研究的重點(diǎn)。
最為重磅的成果之一,便是打破了十年算法瓶頸的AlphaDev。
它的創(chuàng)新意義在于,AlphaDev并不是通過(guò)改進(jìn)現(xiàn)有算法,而是利用強(qiáng)化學(xué)習(xí)完全從頭開始發(fā)現(xiàn)了更快的算法。
論文地址:https://www.nature.com/articles/s41586-023-06004-9
結(jié)果顯示,AlphaDev發(fā)現(xiàn)新的排序算法,為L(zhǎng)LVM libc++排序庫(kù)帶來(lái)了明顯的改進(jìn)。對(duì)于較短的序列,速度提高了70%,而對(duì)于超過(guò)250,000個(gè)元素的序列,速度提高了約1.7%。
現(xiàn)在,這個(gè)算法已經(jīng)成為兩個(gè)標(biāo)準(zhǔn)C++編碼庫(kù)的一部分,每天都會(huì)被全球的程序員使用數(shù)萬(wàn)億次。
為了更好地評(píng)估大型程序的執(zhí)行性能,谷歌開發(fā)了可以用來(lái)預(yù)測(cè)大型圖(large graphs)特性的全新算法,并配合發(fā)布了全新的數(shù)據(jù)集TPUGraphs。
TPUGraphs數(shù)據(jù)集包含4400萬(wàn)個(gè)用于機(jī)器學(xué)習(xí)程序優(yōu)化的圖
此外,谷歌還提出了一種新的負(fù)載均衡算法——Prequal,它能夠在分配服務(wù)器查詢時(shí),顯著節(jié)約CPU資源、減少響應(yīng)時(shí)間和內(nèi)存使用。
谷歌通過(guò)開發(fā)新的計(jì)算最小割、近似相關(guān)聚類和大規(guī)模并行圖聚類技術(shù),改進(jìn)了聚類和圖算法的SOTA。
其中包括,專為擁有萬(wàn)億條邊的圖設(shè)計(jì)的新型分層聚類算法TeraHAC;可以同時(shí)實(shí)現(xiàn)高質(zhì)量和高可擴(kuò)展性的文本聚類算法KwikBucks;以及用于近似多嵌入模型標(biāo)準(zhǔn)相似函數(shù)Chamfer Distance的高效算法,與高度優(yōu)化的精確算法相比,該算法的速度提高了50倍以上,并可擴(kuò)展至數(shù)十億個(gè)點(diǎn)。
此外,谷歌還對(duì)大規(guī)模嵌入模型 (LEMs) 了進(jìn)行優(yōu)化。
其中包括,統(tǒng)一嵌入 (Unified Embedding),它在大規(guī)模機(jī)器學(xué)習(xí)系統(tǒng)中提供了經(jīng)過(guò)實(shí)戰(zhàn)測(cè)試的特征表示,以及序列注意力 (Sequential Attention) 機(jī)制,它在模型訓(xùn)練過(guò)程中可以發(fā)現(xiàn)高效的稀疏模型結(jié)構(gòu)。
在不遠(yuǎn)的將來(lái),AI在科學(xué)研究中的應(yīng)用,有望將某些領(lǐng)域的發(fā)現(xiàn)速度提升10倍、100倍甚至更多。
從而推動(dòng)生物工程、材料科學(xué)、天氣預(yù)測(cè)、氣候預(yù)報(bào)、神經(jīng)科學(xué)、遺傳醫(yī)學(xué)和醫(yī)療保健等眾多領(lǐng)域取得重大突破。
在對(duì)飛機(jī)尾流 (contrails) 的研究中,谷歌通過(guò)分析大量天氣數(shù)據(jù)、歷史衛(wèi)星圖像和以往的飛行記錄,訓(xùn)練了一個(gè)能夠預(yù)測(cè)飛機(jī)尾流的形成區(qū)域,并據(jù)此調(diào)整航線的AI模型。結(jié)果顯示,這一系統(tǒng)可以將飛機(jī)尾流減少54%。
為了幫助抵御氣候變化帶來(lái)的種種挑戰(zhàn),谷歌一直致力于開發(fā)全新的技術(shù)方法。
舉例來(lái)說(shuō),谷歌的洪水預(yù)報(bào)服務(wù)目前已經(jīng)覆蓋了80個(gè)國(guó)家,能夠直接影響超過(guò)4.6億人口。
此外,谷歌在天氣預(yù)測(cè)模型的開發(fā)上也有了最新的進(jìn)展。
在MetNet和MetNet-2的基礎(chǔ)上,谷歌打造了更強(qiáng)的MetNet-3,可以在長(zhǎng)達(dá)24小時(shí)的時(shí)間范圍內(nèi),實(shí)現(xiàn)超越傳統(tǒng)數(shù)值天氣模擬的效果。
在中期天氣預(yù)報(bào)領(lǐng)域,全新AI模型GraphCast可在1分鐘內(nèi),精準(zhǔn)預(yù)測(cè)10天全球天氣,甚至還可以預(yù)測(cè)極端天氣事件。
論文地址:https://www.science.org/doi/10.1126/science.adi2336
研究發(fā)現(xiàn),與行業(yè)黃金標(biāo)準(zhǔn)天氣模擬系統(tǒng)——高分辨率預(yù)報(bào)(HRES)相比,GraphCast在1380個(gè)測(cè)試變量中準(zhǔn)確預(yù)測(cè)超過(guò)90%。
而且,GraphCast還能比傳統(tǒng)預(yù)報(bào)模型更早地識(shí)別出惡劣天氣事件——提前3天預(yù)測(cè)出未來(lái)氣旋的潛在路徑。
值得一提的是,GraphCast模型的源代碼已經(jīng)全部開放,從而讓世界各地的科學(xué)家和預(yù)報(bào)員可以造福全球數(shù)十億人。
在醫(yī)療健康領(lǐng)域,AI展現(xiàn)出了巨大的潛力。
初代Med-PaLM,是第一個(gè)通過(guò)美國(guó)醫(yī)學(xué)執(zhí)照考試的AI模型。隨后的Med-PaLM 2,又在此基礎(chǔ)上進(jìn)一步提升了19%,達(dá)到了86.5%的專家級(jí)準(zhǔn)確率。
而最近發(fā)布的多模態(tài)Med-PaLM M,不僅可以處理自然語(yǔ)言輸入,而且還能夠解釋醫(yī)學(xué)圖像、文本數(shù)據(jù)以及其他多種數(shù)據(jù)類型。
Med-PaLM M是一個(gè)大規(guī)模多模態(tài)生成模型,它能用相同的模型權(quán)重靈活地編碼和解釋生物醫(yī)學(xué)數(shù)據(jù),包括臨床語(yǔ)言、成像和基因組學(xué)數(shù)據(jù)
不僅如此,AI系統(tǒng)還能在現(xiàn)有醫(yī)療數(shù)據(jù)中探索出全新的信號(hào)和生物標(biāo)記。
通過(guò)分析視網(wǎng)膜圖像,谷歌證明了可以從眼睛的照片中預(yù)測(cè)出多個(gè)與不同器官系統(tǒng)(如腎臟、血液、肝臟)相關(guān)的全新生物標(biāo)記。
在另一項(xiàng)研究中,谷歌還發(fā)現(xiàn),將視網(wǎng)膜圖像與基因信息相結(jié)合有助于揭示一些與衰老相關(guān)的根本因素。
在基因組學(xué)領(lǐng)域,谷歌與60家機(jī)構(gòu)的119位科學(xué)家合作,繪制出了新的人類基因組圖譜。
并且,在開創(chuàng)性的AlphaFold基礎(chǔ)上,為所有7100萬(wàn)個(gè)可能的錯(cuò)義變體中的89%,提供了預(yù)測(cè)目錄。
此外,谷歌還發(fā)布了AlphaFold最新進(jìn)展——「AlphaFold-latest」,它可以對(duì)蛋白質(zhì)數(shù)據(jù)庫(kù)(PDB)中幾乎所有分子,進(jìn)行原子級(jí)精確的結(jié)構(gòu)預(yù)測(cè)。
這一進(jìn)展不僅深化了我們對(duì)生物分子的理解,而且還大幅提升了在配體(小分子)、蛋白質(zhì)、核酸(DNA和RNA)以及含有翻譯后修飾(PTMs)的生物大分子等多個(gè)重要領(lǐng)域的準(zhǔn)確性。
量子計(jì)算機(jī)具有解決科學(xué)和工業(yè)領(lǐng)域重大現(xiàn)實(shí)問(wèn)題的潛力。
但要實(shí)現(xiàn)這一潛力,量子計(jì)算機(jī)的規(guī)模必須比現(xiàn)在大得多,而且必須能夠可靠地執(zhí)行經(jīng)典計(jì)算機(jī)無(wú)法執(zhí)行的任務(wù)。
為了保證量子計(jì)算的可靠性,還需要將它的錯(cuò)誤率從現(xiàn)在的10^3分之一降低到10^8分之一。
今年,谷歌在開發(fā)大型實(shí)用量子計(jì)算機(jī)的道路上邁出了重要一步——有史以來(lái)首次通過(guò)增加量子比特來(lái)降低計(jì)算錯(cuò)誤率。
生成式AI正在醫(yī)療、教育、安全、能源、交通、制造和娛樂(lè)等眾多領(lǐng)域帶來(lái)革命性的影響。
面對(duì)這些飛躍的發(fā)展,確保技術(shù)設(shè)計(jì)符合谷歌的AI原則依然是首要任務(wù)。
在不斷推進(jìn)機(jī)器學(xué)習(xí)和人工智能的最新技術(shù)的同時(shí),谷歌也致力于幫助人們理解并將AI應(yīng)用于特定問(wèn)題。
為此,谷歌推出了基于網(wǎng)頁(yè)的平臺(tái)Google AI Studio,幫助開發(fā)者打造并迭代輕量級(jí)的AI應(yīng)用。
同時(shí),為了幫助AI工程師能夠更深入地理解和調(diào)試AI,谷歌還推出了最先進(jìn)的開源機(jī)器學(xué)習(xí)模型調(diào)試工具——LIT 1.0。
作為谷歌最受歡迎的工具之一,Colab可以讓開發(fā)者和學(xué)生直接在瀏覽器中訪問(wèn)強(qiáng)大的計(jì)算資源,目前已擁有超過(guò)1000萬(wàn)用戶。
前段時(shí)間,谷歌又在Colab中加入了AI代碼輔助功能,讓所有的用戶都?jí)蛟跀?shù)據(jù)分析和機(jī)器學(xué)習(xí)工作流中,擁有更加便捷和一體化的體驗(yàn)。
就在最近,谷歌為了確保AI能夠在實(shí)際應(yīng)用中提供正確無(wú)誤的信息,創(chuàng)新性地推出了FunSearch方法。
通過(guò)進(jìn)化算法和大語(yǔ)言模型的結(jié)合,F(xiàn)unSearch能夠在數(shù)學(xué)科學(xué)領(lǐng)域生成經(jīng)過(guò)驗(yàn)證的真實(shí)知識(shí)。
具體來(lái)說(shuō),F(xiàn)unSearch將預(yù)訓(xùn)練的LLM與自動(dòng)「評(píng)估器」配對(duì)使用。前者的目標(biāo)是以計(jì)算機(jī)代碼的形式提供創(chuàng)造性的解決方案,后者則防止幻覺和錯(cuò)誤的想法。在這兩個(gè)組件之間反復(fù)迭代之后,初始的解決方案便會(huì)「進(jìn)化」為新知識(shí)。
論文地址:https://www.nature.com/articles/s41586-023-06924-6
通過(guò)發(fā)表研究成果、參與和組織學(xué)術(shù)會(huì)議,谷歌正在持續(xù)推動(dòng)AI和計(jì)算機(jī)科學(xué)的發(fā)展。
今年,谷歌已發(fā)表了500多篇論文。其中,有不少都被收錄在了包括ICML、ICLR、NeurIPS、ICCV、CVPR、ACL、CHI和Interspeech等眾多頂會(huì)之中。
此外,谷歌還聯(lián)合33個(gè)學(xué)術(shù)實(shí)驗(yàn)室,通過(guò)匯總來(lái)自22種不同機(jī)器人類型的數(shù)據(jù),創(chuàng)建了Open X-Embodiment數(shù)據(jù)集和RT-X模型。
谷歌在MLCommons標(biāo)準(zhǔn)組織的支持下,帶頭在行業(yè)內(nèi)推動(dòng)AI安全基準(zhǔn)的建立,參與者包括 OpenAI、Anthropic、Microsoft、Meta、Hugging Face等在生成式AI領(lǐng)域舉足輕重的機(jī)構(gòu)。
隨著多模態(tài)模型(multimodal models)的不斷進(jìn)步,它們將助力人類在科學(xué)、教育乃全新的知識(shí)領(lǐng)域取得驚人的成就。
隨著時(shí)間的推進(jìn),谷歌的產(chǎn)品和研究也不斷進(jìn)步,而人們也將會(huì)找到更多富有創(chuàng)意的AI應(yīng)用方式。
在這篇年終總結(jié)的最后,讓我們回到開頭的話題,正如谷歌在「Why We Focus on AI (and to what end)」中所言:
「如果大膽而負(fù)責(zé)地推進(jìn)AI的發(fā)展,我們相信AI能夠成為一項(xiàng)基礎(chǔ)技術(shù),徹底改變?nèi)澜缛说纳睢@正是我們追求的目標(biāo),也是我們的激情所在!」
參考資料:
https://blog.research.google/2023/12/2023-year-of-groundbreaking-advances-in.html
小編推薦下載
谷歌街景 旅游出行
谷歌地圖 旅游出行
谷歌壁紙 拍照攝影
絕地越獄 FPS射擊
絕地劍俠 動(dòng)作冒險(xiǎn)
谷歌Assistant 學(xué)習(xí)工具
谷歌jamboard 學(xué)習(xí)工具
絕地槍神 FPS射擊
相關(guān)推薦
相關(guān)文章
更多>>資訊排行
同類軟件下載
末日行動(dòng)絕地反擊 FPS射擊
聯(lián)手網(wǎng) 購(gòu)物優(yōu)惠
黎明反擊 動(dòng)作冒險(xiǎn)
總結(jié)N 益智休閑
前線反擊 FPS射擊
反擊全球攻勢(shì) FPS射擊
復(fù)仇大戰(zhàn) 益智休閑
訊聯(lián)手環(huán) 娛樂(lè)消遣
復(fù)仇熊 動(dòng)作冒險(xiǎn)
復(fù)仇RPG 動(dòng)作冒險(xiǎn)
熱門標(biāo)簽