宇宙最强Llama3发布,有友友要求AirLLM支持本地4GB显存跑Llama3 70B?马上安排!
Llama3对比GPT4效果究竟如何?Llama3这么强大究竟是用了什么最新的神仙技术?Llama3的突破是不是意味着开源模型正式开始超越了闭源了?今天给出我们的解读。
01
如何本地4GB显存随便跑Llama3 70B?
pip install airllm
然后只需要几行代码:
from airllm import AutoModel
MAX_LENGTH = 128
model = AutoModel.from_pretrained("v2ray/Llama-3-70B")
input_text = [
'What is the capital of United States?'
]
input_tokens = model.tokenizer(input_text,
return_tensors="pt",
return_attention_mask=False,
truncation=True,
max_length=MAX_LENGTH,
padding=False)
generation_output = model.generate(
input_tokens['input_ids'].cuda(),
max_new_tokens=20,
use_cache=True,
return_dict_in_generate=True)
output = model.tokenizer.decode(generation_output.sequences[0])
print(output)
详见我们的github repo:https://github.com/lyogavin/Anima/tree/main/air_llm。
02
PK GPT4对比如何?
官方评测结果
lmsys leaderboard结果
当然更合理的是用规模相近的400B去和GPT4,Claude3 Opus对比:
训练中的Llama400B对比GPT4和Claude3 Opus对比
Llama3 400B已经非常接近GPT4和Claude3的最强版本。而且Llama3 400B还在训练中。
03
Llama3最核心的提升在哪里?
04
Llama3的成功是否宣告了开源模型正式上位?
踩开源模型的都啪啪打脸。
不过开源和闭源的斗争可能远远没有结束。好戏还有很多。
不论开源还是闭源,训练大模型都已经变成了一个拼烧钱的游戏。15T的数据400B的模型不是什么小玩家都玩得起的。目测半年内很多搞大模型的小公司会死掉。
拼烧钱的事情本质上拼的还是长期的投资变现能力。其实到今天为止AI真正落地变现还非常少。谁能持续维持投入,以什么样的方式维持投入都很难说。
希望各位神仙打架不要停,让我们一直有越来越牛的模型可以用,还可以一直有瓜吃。
本文链接:https://www.hzby.vip/Llama3/27.html
Llama 3开源模型Ollama 地址Llama-3官方模型权重地址Llama-8BLlama-3-400Bllama和ChatGPTllama是啥意思llama大模型llama 3
网友评论