跳到主要内容

· 4 分钟阅读

Starwhale的开源大语言模型评测报告的评测结果或其他人的评测结果存疑,应该如何复现和对比评测结果?下文将为大家逐一讲解说明

基本流程:登录账号 → 创建项目 → 运行评测 → 对比结果

STEP1:登录账号

需要登录Starwhale平台,点击跳转登录入口。如您尚未注册,可点击 注册入口 进行注册。

STEP2:创建项目

成功登录后进入项目列表页,点击右上角的 创建 项目按钮,输入项目名称,点击 提交 按钮即可新建一个项目。

STEP3:运行评测

进入评测列表页,点击右上角的 创建 评测按钮,并选择相应参数。

例如想复现baichuan2-13b使用cmmlu数据集评测的结果,可参考以下内容进行操作:

  1. 选择运行资源,推荐选择资源:A10*24G*2;
  2. 选择模型:starwhale/llm-leaderboard/baichuan2-13b/atgoiscm(v1、latest);
  3. 选择handler:选择:src.evaluation:evaluation_results;
  4. 选择数据集:starwhale/llm-leaderboard/cmmlu/kiwtxza7(v1、latest);
  5. 选择运行时:starwhale/llm-leaderboard/llm-leaderboard/ickinf6q(v1、latest);
  6. 高级配置,关闭自动释放

点击 提交 即可运行评测。评测运行时,可在评测详情页的任务TAB页点击 查看日志 了解评测运行情况;当评测状态为“成功”时,可在列表页和详情页查看评测结果。

STEP4:对比结果

进入报告列表页,点击右上角的 创建 报告按钮。

报告提供富文本编辑能力,这里主要介绍如何将自己的评测结果和 Starwhale 或者其他的评测结果进行对比。

  1. 输入 报告标题、描述;
  2. 输入 / ,选择 Panel 选项;
  3. 点击 添加评测 按钮,选择评测所属的项目,如“llm-leaderboard”,然后勾选想要添加的评测,点击 添加 可将评测加入评测列表。支持跨项目添加评测,您可以添加多个您想对比的评测;
  4. 将想要进行对比的评测添加完成后:可点击 列管理 设置图标设置评测列表展示的字段及字段展示顺序;鼠标hover评测列表字段,可固定该列、或者按照升序降序进行排序;
  5. 可点击 添加图表 按钮 :选择图表类型,如 Bar Chart;添加 Metrics,如 accuracy相关指标(支持指标模糊搜索);输入 图表标题(非必填),点击 提交 即可将数据以条形图的方式展示,以便更直观得分析;
  6. 点击 发布到项目 按钮发布报告;
  7. 如想分享给其他人,进入 报告列表页 ,打开 分享 开关,获得报告链接的人即可浏览报告。

reproduce and compare evals

以上就是关于如何使用 Starwhale Cloud 复现和对比评测结果的说明,如果您在使用过程中有任何问题欢迎私信留言。您也可以通过Starwhale官网了解更多信息,感谢您的关注和支持。

· 6 分钟阅读

Meta Llama 2 一经发布就吸引了全世界的目光,Starwhale 特别制作了 Llama 2-Chat 和 Llama 2-7b模型包。只需5分钟,您就可以在 https://cloud.starwhale.cn 上和 Llama 2-Chat 进行对话。

后续我们也将提供Llama 2-13b 和 Llama 2-70b 的模型包,感兴趣的朋友们请持续关注!

下文将为大家详细介绍什么是 Llama 2,什么是 Starwhale 以及如何使用 Starwhale 运行 Llama 2-Chat。

什么是 Llama 2

Llama 2 系列模型是一组使用了优化的自回归 Transformer 架构的大语言模型,经过了预训练和微调,包含70亿、130亿和700亿三种参数版本。此外,Meta还训练了 340亿参数版本,但并未发布,相关数据在论文中有体现。

预训练:相比 Llama 1, Llama 2 的训练数据多了40%,用了2万亿个tokens进行训练,而且上下文长度是 Llama 1 的两倍,达到4096。Llama 2 适合用于各种自然语言生成任务。

image

Meta将 Llama 2-70b 的结果与闭源模型进行了比较,在 MMLU 和 GSM8K 上的表现接近 GPT-3.5, 但在编码基准上存在显著差异。此外,几乎所有基准上, Llama 2-70b 的结果与谷歌 PaLM-540 b 持平或表现更好,与 GPT-4 和 PaLM-2-L 的性能仍存在较大差距。

image

微调:Llama 2-Chat 是基于Llama 2 针对聊天对话场景微调的版本,使用 SFT (监督微调) 和 RLHF (人类反馈强化学习)进行迭代优化,以便更好的和人类偏好保持一致,提高安全性。微调数据使用了包括公开可用的指令数据集,以及一百多万新的人工标注样本。Llama 2-Chat 可用于类似助理的聊天。下图展示了单轮和多轮对话的违规百分比,与基线相比,Llama 2-Chat 在多轮对话中表现尤其良好。

image

什么是 Starwhale

Starwhale是一个MLOps平台,提供MLOps全流程解决方案,能够让开发者和企业高效便捷地进行模型托管、运行、评测、部署及数据集管理等。用户可以根据自己的需要,选择 Standalone、Server 或者 Cloud 任意一版使用,详细说明可参考文档什么是Starwhale

如何使用 Starwhale Cloud 运行 Llama 2-Chat

基本流程:登录账号 → 创建项目 → 运行模型 → 进行对话

一. 登录

首先,需要登录Starwhale平台,点击跳转登录入口。如您尚未注册,可点击 注册入口 进行注册。

二. 创建项目

成功登录后进入项目列表页,点击右上角的创建项目按钮,输入项目名称,点击 提交 按钮即可新建一个项目。

image

image

三. 运行模型

进入作业列表页,点击右上角的创建任务按钮。

1) 选择运行资源,可以选择 A100 80G1(推荐) 或者 A10 24G1 2) 选择模型:starwhale/public/llama2-7b-chat/ki72ulaf(latest) 3) 选择handler:运行对话模型,选择默认项:evaluation:chatbot 4) 选择运行时:选择默认项,内置 5) 高级配置,打开自动释放开关:可设置任务自动释放时长,达到设置时长,系统会自动取消任务运行。如不设置自动释放,您可以在体验完成后手动取消任务。

点击提交即可运行模型

image

四. 查看运行结果和日志

作业列表页可以查看项目中的所有作业。

image

点击作业ID ,进入任务详情页,点击查看日志可查看

从任务提交到模型运行起来,总计用时5分04秒

image

运行成功后返回任务列表,点击终端按钮,可打开 chatbox 页面,在 chatbox 页面和 Llama 2-Chat 对话

image

image

以上就是关于如何使用 Starwhale Cloud 运行 Llama 2-Chat 的说明,如果您在使用过程中有任何问题欢迎私信留言。您也可以通过Starwhale官网了解更多信息,感谢您的关注和支持。

· 1 分钟阅读
tianwei

Starwhale是一个 MLOps平台,能够让您的模型创建、评估和发布流程变得更加轻松。 它旨在为数据科学家和机器学习工程师创建一个方便的工具。