Llama3 中文聊天項目綜合資源庫,該文檔集合了與Lama3 模型相關(guān)的各種中文資料,包括微調(diào)版本、有趣的權(quán)重、訓(xùn)練、推理、評測和部署的教程視頻與文檔。
1. 多版本支持與創(chuàng)新:該倉庫提供了多個版本的Lama3 模型,包括基于不同技術(shù)和偏好的微調(diào)版本,如直接中文SFT版、Instruct偏好強化學(xué)習(xí)版、趣味版等。此外,還有Phi3模型中文資料倉庫的鏈接,和性能超越了8b版本的Llama3。
2. 部署與使用:項目提供了網(wǎng)頁部署的代碼和教程,使用戶可以輕松地在網(wǎng)頁上使用這些模型。部署教程包括如何在Streamlit上部署這些模型進行在線體驗。
3. 訓(xùn)練與推理資源:除了已經(jīng)提供的模型,倉庫還包括多種訓(xùn)練和推理的資源,如訓(xùn)練教程、推理腳本、優(yōu)質(zhì)訓(xùn)練數(shù)據(jù)集的整理等。
4. 擴展和增強:項目還在計劃中包括增加更多的擴展如角色扮演增強模型、長上下文支持等,旨在提升模型的功能和適應(yīng)更多復(fù)雜場景的能力。
可用Chat版模型整理:lama3相關(guān)對話版本優(yōu)質(zhì)權(quán)重整理
shareAl系列:
1.base預(yù)訓(xùn)練+直接中文SFT版
訓(xùn)練數(shù)據(jù):https://modelscope.cn/datasets/baicai003/Llama3-Chinese-dataset/summary
V1版
0penCSG滿速下載:https://opencsg.com/models/shareAl/llama3-Chinese-chat-8b
WiseModel滿速下載:https://wisemodel.cn/models/shareAl/llama3-Chinese-chat-8b
V2版
modelscope:https://modelscope.cn/models/baicai003/Llama3-Chinese_v2/summary
2.Instruct+繼續(xù)中文SFT版
modelscope模型下載:https://modelscope.cn/models/baicai003/llama-3-8b-Instruct-chinese_v2/summary
3.Instruct+強化學(xué)習(xí)中文版
DPO 表情趣味版(10分鐘左右可訓(xùn)練好,對原多語言instruct版最小化性能損傷,實測超過大多中文大量訓(xùn)練版)
Modelscope:下載:https://modelscope.cn/models/baicai003/Llama3-Chinese-instruct-DPO-beta0.5/summary
偏好學(xué)習(xí)數(shù)據(jù)集:DP0-zh-en-emoji
Base預(yù)訓(xùn)練+海量中文優(yōu)質(zhì)數(shù)據(jù)增量預(yù)訓(xùn)練:正在進行中
70b 中文版:計劃中。
4.下面幾個版本因?qū)υ捘0娓袷讲煌瑫簳r不支持網(wǎng)頁部署推理,需要用fastchat體驗
Base+ 中文SFT: https://modelscope.cn/models/zhuangxialie/Llama3_Chinese_Sft/files
Base+ ORPO: https://modelscope.cn/models/zhuangxialie/Llama3-Chinese-ORPO/summary 偏愛長對話
Instruct + DPO: https://www.modelscope.cn/models/zhuangxialie/Llama3-Chinese-DPO/summary 偏愛長對話
5.llama3 Pro(加block版,推薦網(wǎng)友積極在該方案上做更多嘗試、探索)
linjh1118網(wǎng)友(第一個ORPO偏好對齊+擴展2*blocks):htps://github.com/linjh1118/Llama3-Chinese-0RPO
6.llama3 Moe增強版
cooper12121-lama3-8x8b-MoE: https://github.com/cooper12121/llama3-8x8b-MoE
7.長上下文版本
聯(lián)通微調(diào)版v2(中文,28k上下文):https://huggingface.co/UnicomLLM/Unichat-llama3-Chinese-8B-28K
262k上下文(英文):https://huggingface.co/gradientai/Llama-3-8B-nstruct-262k
262k上下文(中文):計劃中
無限上下文版本:計劃中,參考:https://medium.com/neoxia/lm-infini-attention-with-linear-complexity-3209b87a77c3
8.其他普通中文微調(diào)版本
聯(lián)通微調(diào)版(SFT,網(wǎng)友嘗試反饋幻覺多):
https://www.modelscope.cn/models/UnicomAl/Unichat-llama3-Chinese/summary-
Openbuddy微調(diào)版(SFT,據(jù)說不錯):
https://www.modelscope.cn/models/0penBuddy/openbuddy-llama3-8b-v21.1-8k/summary
zhichen微調(diào)版(ORPO方法,應(yīng)該是第一個orpo):https://github.com/seanzhang-zhichen/llama3-chinese
shenzhi-wang微調(diào)版(ORPO方法,說是第一個orpo):https:/huggingface.co/shenzhi-wang/Llama3-8B-Chinese-Chat
Rookie微調(diào)版(SFT):https://github.com/Rookie1019/Llama-3-8B-nstruct-Chinese-hit-sz klc lab
微調(diào)版本:https://github.com/zyg18181818/Llama-3-Chinese
9.破解安全限制系列(暫時只支持英文)
Unholy:https://huggingface.co/Undi95/Llama-3-Unholy-8B
neural-chat: https://hf-mirror.com/Locutusque/llama-3-neural-chat-v1-8b
dolphin: https://huggingface.co/cognitivecomputations/dolphin-2.9-llama3-8b
10.v-llama3 多模態(tài)圖文版 (英文,支持視覺問答)
Bunny-Llama-3-8B-V:https://wisemodel.cn/models/BAAl/Bunny-Llama-3-8B-V
llava-llama-3-8b: https://huggingface.co/xtuner/llava-llama-3-8b-v1_1
11.agent工具能力增強版
ModelScope Chinese Agent版V1(中文,可根據(jù)要求幫你選擇工具)
https://modelscope.cn/models/swift/Llama3-Chinese-8B-nstruct-Agent-v1/summary
基于EmoLLM心理數(shù)據(jù)微調(diào)的Llama3-8B-Instruct 模型
EmoLLM 3.0 在線體驗鏈接
EmoLLM Llama3心理咨詢室V3.0 https://st-app-center-006861-9746
ilroxvg.openxlab.space/
或者前往0penXLab EmoLLM3.0-Llama3啟動
https://openxlab.org.cn/apps/detai/chg0901/EmoLLM-Llama3-8B-nstruct3.0
模型鏈接
**OpenXLab**https://openxlab.org.cn/models/detai/chg0901/EmoLLM-Llama3-8B.-Instruct3.0
ModelScope
https://modelscope.cn/models/chg0901/EmoLLM-Llama3-8B-Instruct3.0/summary
新增Phi3模型中文資料倉庫(性能超越llama3 8b,以小搏大),正在適配中
https://github.com/CrazyBoyM/phi3-Chinese
新增趣味版,數(shù)據(jù)集已開源:
https://modelscope.cn/models/baicai003/Llama3-Chinese-instruct-DP0-beta0.5/summary
模型測評
可用訓(xùn)練工具整理
下面的庫都是相當(dāng)好用的,代碼封裝簡潔又清晰,如果你也想微調(diào)個自己的llama3 中文定制版,不要錯過
Firefly-https://github.com/yangjianxin1/Firefly
螢火蟲-https://github.com/yangjianxin1/Firefly
LLaMA-Factory-https://github.com/hiyouga/LLaMA-Factory
unsloth-https://github.com/unslothai/unsloth
Xtuner-https://github.com/SmartFlowAl/Llama3-XTuner-CN
SWlFT-https://github.com/modelscope/swift
附高性能NVIDIA RTX 40 系列云服務(wù)器購買:
http://systransis.cn/site/active/gpu.html?ytag=seo
https://www.compshare.cn/?ytag=seo
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/131094.html
2024年4月18日,Meta AI正式宣布推出開源大模型Llama3,這標(biāo)志著開源大型語言模型(LLM)領(lǐng)域的又一重大突破。Llama3以其卓越的性能和廣泛的應(yīng)用前景,或?qū)⑼苿尤斯ぶ悄芗夹g(shù)快速邁進新紀元。為方便AI應(yīng)用企業(yè)及個人AI開發(fā)者快速體驗Llama3的超高性能,近期優(yōu)刻得GPU云主機上線Llama3-8B-Instruct-Chinese鏡像,一鍵配置,快速部署模型開發(fā)環(huán)境。為客戶提供開...
Llama3-8B-Chinese-Chat 是基于 Meta-Llama-3-8B-Instruct 模型通過 ORPO進行微調(diào)的中文聊天模型。與原始的 Meta-Llama-3-8B-Instruct 模型相比,此模型顯著減少了中文問題英文回答"和混合中英文回答的問題。此外,相較于原模型,新模型在回答中大量減少了表情符號的使用,使得回應(yīng)更加正式。與 Llama-3-8B-nsturc...
圖示為GPU性能排行榜,我們可以看到所有GPU的原始相關(guān)性能圖表。同時根據(jù)訓(xùn)練、推理能力由高到低做了排名。我們可以看到,H100 GPU的8位性能與16位性能的優(yōu)化與其他GPU存在巨大差距。針對大模型訓(xùn)練來說,H100和A100有絕對的優(yōu)勢首先,從架構(gòu)角度來看,A100采用了NVIDIA的Ampere架構(gòu),而H100則是基于Hopper架構(gòu)。Ampere架構(gòu)以其高效的圖形處理性能和多任務(wù)處理能力而...
項目簡介AniTalker是一個開源項目,它利用靜態(tài)照片和音頻文件來創(chuàng)造動態(tài)的面部說話視頻。AniTalker采用了一種通用的運動表示方法。這種創(chuàng)新的表示方法有效地捕捉了廣泛的面部動態(tài),包括微妙的表情和頭部動作。AniTalker通過兩種自監(jiān)督學(xué)習(xí)策略增強了運動描述:第一種策略是通過同一身份內(nèi)的源幀重建目標(biāo)視頻幀來學(xué)習(xí)微妙的運動表示;第二種策略是使用度量學(xué)習(xí)開發(fā)身份編碼器,同時積極減少身份和運動編...
大模型的訓(xùn)練用4090是不合適的,但推理(inference/serving)用4090不能說合適,而是非常香!直接上圖!通過Tensor FP32(TF32)的數(shù)據(jù)來看,H100性能是全方面碾壓4090,但是頂不住H100價格太貴,推理上使用性價比極低。但在和A100的PK中,4090與A100除了在顯存和通信上有差異,算力差異與顯存相比并不大,而4090是A100價格的1/10,因此如果用在模...
閱讀 177·2024-11-07 17:59
閱讀 225·2024-09-27 16:59
閱讀 357·2024-09-23 10:37
閱讀 403·2024-09-14 16:58
閱讀 267·2024-09-14 16:58
閱讀 371·2024-08-29 18:47
閱讀 603·2024-08-16 14:40
閱讀 323·2024-08-14 17:54