这几天看到特别喷饭的事情,某些大厂的CEO在内部公开信以及开发者会议上拉踩开源大模型。
在某内部会议上讲到,大模型的开源意义不大。我个人从语境分析来看,应该是内部对于是否开源百度大模型的一种回应,
从商业模式来看,多一个开源模型的意义确实不是很大。
你可以从商业模式上拒绝开源,大家没有任何意见。
但是你提到通过降维裁剪出来的小模型,比直接用开源模型调出来的模型更好,效果更明显。 所以得出的结论是“开源模型会越来越落后....”
这什么神逻辑????真是让人啼笑皆非,不说开源模型落不落后吧?再落后也是开源精神的领先。另外某厂商怎么有 B 数暗示开源落后的?连跑分都不公布..找了半天愣是没找到某厂商尊贵的优秀的大模型的评测分数。
那让我们来看最新开源 Llama3,细数开源背后的信息
开源AI 的 GPT时刻就是干掉 GPT4!!!
真正意义上的领先 GPT4,也就是人人都能拥有的 GPT4 时刻(有钱人和有钱的公司)...
那么某先生到底有啥 B 数啊..说开源不如闭源,那也要看是谁的开源谁的闭源。但是无论如何开源精神都是值得致敬的!没有开源的世界就是一个没有轮子的沙漠(沙漠为什么要有轮子?)大家都在重复的做着同一件事情,这世界最伟大的精神,就是开源精神。
AI 不服跑个分!!
离谱的性能提升,LLama3 70B作为中规 中矩 中等 模型,得分已经大幅领先Google 去年年底发布的 Gemini 1.0 Pro(180B)。
更离谱的是还领先谷歌最近才发布的遥遥领先的 Gemini Pro 1.5...
领先了Claude Sonnet..这我认为倒是基操。
同种规格下,比上一代 llama2 65B,足足提升了30%。
MMLU scores for Llama 1, 2, and 3:
Llama 1 65B on 1.4T tokens (22:1) • Feb/2023 • MMLU=63.4
Llama 2 70B on 2T tokens (29:1) • Jul/2023 • MMLU=68.9
Llama 3 70B on 15T tokens (215:1) • Apr/2024 • MMLU=82.0分数直接杀入到大模型 Top5 前列了!注意这里还不包含超大杯的 llama3
llama3 8B 版本,作为电脑都能跑的(未来都能跑),也取得不错的成绩,综合成绩第一。
其他各种评比领先
开源Llama3你要注意的事情
框架使用 Dense 架构,而不是 MOE,模型跑起来据说消耗的资源会更多一些,属于大力出奇迹的典型代表。:) 常见使用 Dense 架构有 Grok 、Claude家族。
from twitter @FinanceYF5
训练成本巨多钱!!!为了股价我 Meta 拼了(开源精神)
训练 llama3(70B 和 8B)总共用了 700W 小时的 GPU,亚马逊据说一个小时 12 美元!!成本接近 1 亿美元!!!还不包含人工成本,算上人工成本 1.5 亿美元要不要!!
所以这就是开源精神啊!!!你怎么敢!!!
Meta 正式上线基于Llama3的 AI 产品啦,还可以通过下方法体验啦
Meta AI https://ai.meta.com/
Hugging Face - https://huggingface.co/chat/ Replicate
https://replicate.com/meta/meta-llama-3-8b https://replicate.com/meta/meta-llama-3-70b
开源自己装着玩 https://llama.meta.com/llama-downloads
One more things
450B的超大杯也马上发布了,大家可以狠狠期待下 llama3!!!!!干掉全世界模型!!!开源致胜!!!
OpenAI:我很好,大招快好了,勿 Cue...
Sanlang:坐等新白嫖 API Meta~
本文链接:https://www.hzby.vip/Llama3/14.html
开源模型llama.meta.com/llama3Llama 3开源模型Ollama 地址GGUF 版本地址Llama-8BLlama-3-70BLlama-3-400B
网友评论