成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

Llama3中文聊天項目全能資源庫,4090單卡直接跑!

UCloud小助手 / 573人閱讀

Llama3 中文聊天項目綜合資源庫,該文檔集合了與Lama3 模型相關(guān)的各種中文資料,包括微調(diào)版本、有趣的權(quán)重、訓(xùn)練、推理、評測和部署的教程視頻與文檔。


1. 多版本支持與創(chuàng)新:該倉庫提供了多個版本的Lama3 模型,包括基于不同技術(shù)和偏好的微調(diào)版本,如直接中文SFT版、Instruct偏好強化學(xué)習(xí)版、趣味版等。此外,還有Phi3模型中文資料倉庫的鏈接,和性能超越了8b版本的Llama3。

2. 部署與使用:項目提供了網(wǎng)頁部署的代碼和教程,使用戶可以輕松地在網(wǎng)頁上使用這些模型。部署教程包括如何在Streamlit上部署這些模型進行在線體驗。

3. 訓(xùn)練與推理資源:除了已經(jīng)提供的模型,倉庫還包括多種訓(xùn)練和推理的資源,如訓(xùn)練教程、推理腳本、優(yōu)質(zhì)訓(xùn)練數(shù)據(jù)集的整理等。

4. 擴展和增強:項目還在計劃中包括增加更多的擴展如角色扮演增強模型、長上下文支持等,旨在提升模型的功能和適應(yīng)更多復(fù)雜場景的能力。


可用Chat版模型整理:lama3相關(guān)對話版本優(yōu)質(zhì)權(quán)重整理

shareAl系列:

1.base預(yù)訓(xùn)練+直接中文SFT版

訓(xùn)練數(shù)據(jù):https://modelscope.cn/datasets/baicai003/Llama3-Chinese-dataset/summary

V1版

0penCSG滿速下載:https://opencsg.com/models/shareAl/llama3-Chinese-chat-8b

WiseModel滿速下載:https://wisemodel.cn/models/shareAl/llama3-Chinese-chat-8b

V2版

modelscope:https://modelscope.cn/models/baicai003/Llama3-Chinese_v2/summary

2.Instruct+繼續(xù)中文SFT版

modelscope模型下載:https://modelscope.cn/models/baicai003/llama-3-8b-Instruct-chinese_v2/summary

3.Instruct+強化學(xué)習(xí)中文版

  • DPO 表情趣味版(10分鐘左右可訓(xùn)練好,對原多語言instruct版最小化性能損傷,實測超過大多中文大量訓(xùn)練版)

  • Modelscope:下載:https://modelscope.cn/models/baicai003/Llama3-Chinese-instruct-DPO-beta0.5/summary

  • 偏好學(xué)習(xí)數(shù)據(jù)集:DP0-zh-en-emoji

  • Base預(yù)訓(xùn)練+海量中文優(yōu)質(zhì)數(shù)據(jù)增量預(yù)訓(xùn)練:正在進行中

  • 70b 中文版:計劃中。

4.下面幾個版本因?qū)υ捘0娓袷讲煌瑫簳r不支持網(wǎng)頁部署推理,需要用fastchat體驗

  • Base+ 中文SFT: https://modelscope.cn/models/zhuangxialie/Llama3_Chinese_Sft/files

  • Base+ ORPO: https://modelscope.cn/models/zhuangxialie/Llama3-Chinese-ORPO/summary 偏愛長對話

  • Instruct + DPO: https://www.modelscope.cn/models/zhuangxialie/Llama3-Chinese-DPO/summary 偏愛長對話

5.llama3 Pro(加block版,推薦網(wǎng)友積極在該方案上做更多嘗試、探索)

linjh1118網(wǎng)友(第一個ORPO偏好對齊+擴展2*blocks):htps://github.com/linjh1118/Llama3-Chinese-0RPO

6.llama3 Moe增強版

cooper12121-lama3-8x8b-MoE: https://github.com/cooper12121/llama3-8x8b-MoE

7.長上下文版本

聯(lián)通微調(diào)版v2(中文,28k上下文):https://huggingface.co/UnicomLLM/Unichat-llama3-Chinese-8B-28K

  • 262k上下文(英文):https://huggingface.co/gradientai/Llama-3-8B-nstruct-262k

  • 262k上下文(中文):計劃中

  • 無限上下文版本:計劃中,參考:https://medium.com/neoxia/lm-infini-attention-with-linear-complexity-3209b87a77c3

8.其他普通中文微調(diào)版本

  • 聯(lián)通微調(diào)版(SFT,網(wǎng)友嘗試反饋幻覺多):

  • https://www.modelscope.cn/models/UnicomAl/Unichat-llama3-Chinese/summary-

  • Openbuddy微調(diào)版(SFT,據(jù)說不錯):

  • https://www.modelscope.cn/models/0penBuddy/openbuddy-llama3-8b-v21.1-8k/summary

  • zhichen微調(diào)版(ORPO方法,應(yīng)該是第一個orpo):https://github.com/seanzhang-zhichen/llama3-chinese

  • shenzhi-wang微調(diào)版(ORPO方法,說是第一個orpo):https:/huggingface.co/shenzhi-wang/Llama3-8B-Chinese-Chat

  • Rookie微調(diào)版(SFT):https://github.com/Rookie1019/Llama-3-8B-nstruct-Chinese-hit-sz klc lab

  • 微調(diào)版本:https://github.com/zyg18181818/Llama-3-Chinese

9.破解安全限制系列(暫時只支持英文)

  • Unholy:https://huggingface.co/Undi95/Llama-3-Unholy-8B

  • neural-chat: https://hf-mirror.com/Locutusque/llama-3-neural-chat-v1-8b

  • dolphin: https://huggingface.co/cognitivecomputations/dolphin-2.9-llama3-8b

10.v-llama3 多模態(tài)圖文版 (英文,支持視覺問答)

  • Bunny-Llama-3-8B-V:https://wisemodel.cn/models/BAAl/Bunny-Llama-3-8B-V

  • llava-llama-3-8b: https://huggingface.co/xtuner/llava-llama-3-8b-v1_1

11.agent工具能力增強版

ModelScope Chinese Agent版V1(中文,可根據(jù)要求幫你選擇工具)

https://modelscope.cn/models/swift/Llama3-Chinese-8B-nstruct-Agent-v1/summary

基于EmoLLM心理數(shù)據(jù)微調(diào)的Llama3-8B-Instruct 模型

  • EmoLLM 3.0 在線體驗鏈接

  • EmoLLM Llama3心理咨詢室V3.0 https://st-app-center-006861-9746

  • ilroxvg.openxlab.space/

  • 或者前往0penXLab EmoLLM3.0-Llama3啟動

https://openxlab.org.cn/apps/detai/chg0901/EmoLLM-Llama3-8B-nstruct3.0


模型鏈接

**OpenXLab**https://openxlab.org.cn/models/detai/chg0901/EmoLLM-Llama3-8B.-Instruct3.0

ModelScope

https://modelscope.cn/models/chg0901/EmoLLM-Llama3-8B-Instruct3.0/summary

新增Phi3模型中文資料倉庫(性能超越llama3 8b,以小搏大),正在適配中

https://github.com/CrazyBoyM/phi3-Chinese

新增趣味版,數(shù)據(jù)集已開源:

https://modelscope.cn/models/baicai003/Llama3-Chinese-instruct-DP0-beta0.5/summary


模型測評

可用訓(xùn)練工具整理

下面的庫都是相當(dāng)好用的,代碼封裝簡潔又清晰,如果你也想微調(diào)個自己的llama3 中文定制版,不要錯過

  • Firefly-https://github.com/yangjianxin1/Firefly

  • 螢火蟲-https://github.com/yangjianxin1/Firefly

  • LLaMA-Factory-https://github.com/hiyouga/LLaMA-Factory

  • unsloth-https://github.com/unslothai/unsloth

  • Xtuner-https://github.com/SmartFlowAl/Llama3-XTuner-CN

  • SWlFT-https://github.com/modelscope/swift


  • 附高性能NVIDIA RTX 40 系列云服務(wù)器購買:

http://systransis.cn/site/active/gpu.html?ytag=seo

https://www.compshare.cn/?ytag=seo


文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/131094.html

相關(guān)文章

  • Llama3來襲!如何通過4090GPU云主機快速部署?

    2024年4月18日,Meta AI正式宣布推出開源大模型Llama3,這標(biāo)志著開源大型語言模型(LLM)領(lǐng)域的又一重大突破。Llama3以其卓越的性能和廣泛的應(yīng)用前景,或?qū)⑼苿尤斯ぶ悄芗夹g(shù)快速邁進新紀元。為方便AI應(yīng)用企業(yè)及個人AI開發(fā)者快速體驗Llama3的超高性能,近期優(yōu)刻得GPU云主機上線Llama3-8B-Instruct-Chinese鏡像,一鍵配置,快速部署模型開發(fā)環(huán)境。為客戶提供開...

    UCloud小助手 評論0 收藏0
  • Llama3-8中文微調(diào)完成!更好地幫助中文寫作、編程和數(shù)學(xué)

    Llama3-8B-Chinese-Chat 是基于 Meta-Llama-3-8B-Instruct 模型通過 ORPO進行微調(diào)的中文聊天模型。與原始的 Meta-Llama-3-8B-Instruct 模型相比,此模型顯著減少了中文問題英文回答"和混合中英文回答的問題。此外,相較于原模型,新模型在回答中大量減少了表情符號的使用,使得回應(yīng)更加正式。與 Llama-3-8B-nsturc...

    UCloud小助手 評論0 收藏0
  • 模型領(lǐng)域GPU性能排名

    圖示為GPU性能排行榜,我們可以看到所有GPU的原始相關(guān)性能圖表。同時根據(jù)訓(xùn)練、推理能力由高到低做了排名。我們可以看到,H100 GPU的8位性能與16位性能的優(yōu)化與其他GPU存在巨大差距。針對大模型訓(xùn)練來說,H100和A100有絕對的優(yōu)勢首先,從架構(gòu)角度來看,A100采用了NVIDIA的Ampere架構(gòu),而H100則是基于Hopper架構(gòu)。Ampere架構(gòu)以其高效的圖形處理性能和多任務(wù)處理能力而...

    UCloud小助手 評論0 收藏0
  • 照片+音頻=視頻,超實用項目源碼已開放,單卡4090部署!

    項目簡介AniTalker是一個開源項目,它利用靜態(tài)照片和音頻文件來創(chuàng)造動態(tài)的面部說話視頻。AniTalker采用了一種通用的運動表示方法。這種創(chuàng)新的表示方法有效地捕捉了廣泛的面部動態(tài),包括微妙的表情和頭部動作。AniTalker通過兩種自監(jiān)督學(xué)習(xí)策略增強了運動描述:第一種策略是通過同一身份內(nèi)的源幀重建目標(biāo)視頻幀來學(xué)習(xí)微妙的運動表示;第二種策略是使用度量學(xué)習(xí)開發(fā)身份編碼器,同時積極減少身份和運動編...

    UCloud小助手 評論0 收藏0
  • 大模型推理為什么4090更合適?

    大模型的訓(xùn)練用4090是不合適的,但推理(inference/serving)用4090不能說合適,而是非常香!直接上圖!通過Tensor FP32(TF32)的數(shù)據(jù)來看,H100性能是全方面碾壓4090,但是頂不住H100價格太貴,推理上使用性價比極低。但在和A100的PK中,4090與A100除了在顯存和通信上有差異,算力差異與顯存相比并不大,而4090是A100價格的1/10,因此如果用在模...

    UCloud小助手 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<