這可能會(huì)是AI技術(shù)形態(tài)的一個(gè)轉(zhuǎn)折點(diǎn),大模型的下一個(gè)形態(tài),不再是人和模型一輪一輪的即時(shí)問(wèn)答了。當(dāng)?shù)貢r(shí)間 7 月 29 日,在美國(guó)丹佛舉行的第 51 屆 SIGGRAPH 計(jì)算機(jī)圖形學(xué)會(huì)議上,英偉達(dá)創(chuàng)始人、CEO 黃仁勛與 Meta 創(chuàng)始人、CEO 馬克?扎克伯格進(jìn)行了一場(chǎng)全球矚目的爐邊談話(huà)。這場(chǎng)對(duì)話(huà)主要圍繞生成式 AI 技術(shù),及其在各種領(lǐng)域上的應(yīng)用展開(kāi)。會(huì)議中,面向全球領(lǐng)先的機(jī)器人制造商、AI 模型...
繼前幾日推出完開(kāi)源大模型Llama 3.1后,就在剛剛,Meta在 SIGGRAPH 上重磅宣布 Segment Anything Model 2 (SAM 2) 來(lái)了。在其前身的基礎(chǔ)上,SAM 2 的誕生代表了領(lǐng)域內(nèi)的一次重大進(jìn)步 —— 為靜態(tài)圖像和動(dòng)態(tài)視頻內(nèi)容提供實(shí)時(shí)、可提示的對(duì)象分割,將圖像和視頻分割功能統(tǒng)一到一個(gè)強(qiáng)大的系統(tǒng)中。SAM 2可以快速、精確地在任何視頻或圖像中選擇對(duì)象。它不僅能在...
在很長(zhǎng)一段時(shí)間內(nèi),占據(jù)大模型評(píng)測(cè)榜單最前列的大多是一些閉源模型,直到Meta再次發(fā)布了最新的開(kāi)源模型。就在近日,Meta和OpenAI打響了硅谷 AI 大模型保衛(wèi)戰(zhàn)。美國(guó)當(dāng)?shù)貢r(shí)間7月23日,Meta正式發(fā)布Llama 3.1。其包含8B、70B 和405B三個(gè)規(guī)模,最大上下文提升到了128k。Llama是目前開(kāi)源領(lǐng)域中用戶(hù)最多、性能最強(qiáng)的大型模型系列之一。Meta 表示,他們將通過(guò)提供更多與模型協(xié)...
在人工智能的浪潮中,個(gè)性化體驗(yàn)已成為創(chuàng)新的關(guān)鍵。而隨著各種各樣的模型迭代更新,如何為AI應(yīng)用提供持久、智能的記憶系統(tǒng)逐漸成為了一個(gè)關(guān)鍵挑戰(zhàn)。最近開(kāi)源的Mem0項(xiàng)目為我們提供了一個(gè)強(qiáng)大的解決方案。它為大型語(yǔ)言模型(LLM)提供了一個(gè)智能、自我優(yōu)化的記憶層,使得跨會(huì)話(huà)的個(gè)性化AI體驗(yàn)成為可能。本文將深入探討Mem0的配置和應(yīng)用,幫助開(kāi)發(fā)者構(gòu)建更智能、更個(gè)性化的AI系統(tǒng)。(實(shí)操方面附帶python代碼)...
小模型,成為本周的AI爆點(diǎn)。與動(dòng)輒上千億參數(shù)的大模型相比,小模型的優(yōu)勢(shì)是顯而易見(jiàn)的:它們不僅計(jì)算成本更低,訓(xùn)練和部署也更為便捷,可以滿(mǎn)足計(jì)算資源受限、數(shù)據(jù)安全級(jí)別較高的各類(lèi)場(chǎng)景。因此,在大筆投入大模型訓(xùn)練之余,像 OpenAI、谷歌等科技巨頭也在積極訓(xùn)練好用的小模型。先是HuggingFace推出了小模型SmoLLM;OpenAI直接殺入小模型戰(zhàn)場(chǎng),發(fā)布了GPT-4o mini。GPT-4o mi...