Llama 3官网|llama3 本地部署|llama3下载

llama3:开源AI 的 GPT时刻就是干掉 GPT4!!!

nidongde2024-05-11 09:12:0316

这几天看到特别喷饭的事情,某些大厂的CEO在内部公开信以及开发者会议上拉踩开源大模型。

在某内部会议上讲到,大模型的开源意义不大。我个人从语境分析来看,应该是内部对于是否开源百度大模型的一种回应,

从商业模式来看,多一个开源模型的意义确实不是很大。

你可以从商业模式上拒绝开源,大家没有任何意见。

但是你提到通过降维裁剪出来的小模型,比直接用开源模型调出来的模型更好,效果更明显。 所以得出的结论是“开源模型会越来越落后....”

这什么神逻辑????真是让人啼笑皆非,不说开源模型落不落后吧?再落后也是开源精神的领先。另外某厂商怎么有 B 数暗示开源落后的?连跑分都不公布..找了半天愣是没找到某厂商尊贵的优秀的大模型的评测分数。

那让我们来看最新开源 Llama3,细数开源背后的信息

开源AI 的 GPT时刻就是干掉 GPT4!!!

真正意义上的领先 GPT4,也就是人人都能拥有的 GPT4 时刻(有钱人和有钱的公司)...

那么某先生到底有啥 B 数啊..说开源不如闭源,那也要看是谁的开源谁的闭源。但是无论如何开源精神都是值得致敬的!没有开源的世界就是一个没有轮子的沙漠(沙漠为什么要有轮子?)大家都在重复的做着同一件事情,这世界最伟大的精神,就是开源精神。

AI 不服跑个分!!

  1. 离谱的性能提升,LLama3 70B作为中规 中矩 中等 模型,得分已经大幅领先Google 去年年底发布的 Gemini 1.0 Pro(180B)。

  2. 更离谱的是还领先谷歌最近才发布的遥遥领先的 Gemini Pro 1.5...

  3. 领先了Claude Sonnet..这我认为倒是基操。

  4. 同种规格下,比上一代 llama2 65B,足足提升了30%。
    MMLU scores for Llama 1, 2, and 3:
    Llama 1 65B on 1.4T tokens (22:1) • Feb/2023 • MMLU=63.4
    Llama 2 70B on 2T tokens (29:1) • Jul/2023 • MMLU=68.9
    Llama 3 70B on 15T tokens (215:1) • Apr/2024 • MMLU=82.0

  5. 分数直接杀入到大模型 Top5 前列了!注意这里还不包含超大杯的 llama3

  6. llama3 8B 版本,作为电脑都能跑的(未来都能跑),也取得不错的成绩,综合成绩第一。

其他各种评比领先

开源Llama3你要注意的事情

  1. 框架使用 Dense 架构,而不是 MOE,模型跑起来据说消耗的资源会更多一些,属于大力出奇迹的典型代表。:) 常见使用 Dense 架构有 Grok 、Claude家族。

from twitter @FinanceYF5

  1. 训练成本巨多钱!!!为了股价我 Meta 拼了(开源精神)

训练 llama3(70B 和 8B)总共用了 700W 小时的 GPU,亚马逊据说一个小时 12 美元!!成本接近 1 亿美元!!!还不包含人工成本,算上人工成本 1.5 亿美元要不要!!

所以这就是开源精神啊!!!你怎么敢!!!

Meta 正式上线基于Llama3的 AI 产品啦,还可以通过下方法体验啦

  1. Meta AI https://ai.meta.com/

  2. Hugging Face - https://huggingface.co/chat/
  3. Replicate
  • https://replicate.com/meta/meta-llama-3-8b
  • https://replicate.com/meta/meta-llama-3-70b
  1. 开源自己装着玩 https://llama.meta.com/llama-downloads

One more things

450B的超大杯也马上发布了,大家可以狠狠期待下 llama3!!!!!干掉全世界模型!!!开源致胜!!!

OpenAI:我很好,大招快好了,勿 Cue...

Sanlang:坐等新白嫖 API Meta~

THE END

本文链接:https://www.hzby.vip/Llama3/14.html

开源模型llama.meta.com/llama3Llama 3开源模型Ollama 地址GGUF 版本地址Llama-8BLlama-3-70BLlama-3-400B

相关文章

网友评论