
PaperReding:《LLaMA: Open and Efficient Foundation Language Models》
LLaMA 本质是 “用公开数据训练、兼顾性能和实用性的开源大模型”—— 它证明了 “不用专属数据、不用超大参数,也能做出顶尖 AI”,而且人人都能获取、使用、改进,大大降低了大语言模型的研究和使用门槛。数学题、写代码:没专门针对性训练,却能打赢一些专门优化过的模型 —— 比如 650 亿参数版本写 Python 代码,比 PaLM 620 亿参数版本还强。模型大小从 70 亿参数到 650 亿参数不等,兼顾 “性能强” 和 “跑得动”—— 比如 130 亿参数的版本,一台普通 GPU 就能运行。


