![]() | 1 neteroster 2024-06-09 19:07:27 +08:00 via Android 很好的测试。Qwen2 确实是非常优秀的一组模型,特别是多语言能力方面的改进可圈可点。阿里选择将模型(除 72B )以 Apache2.0 开源也是非常慷慨。期待未来更强的模型。 |
2 freshgoose 2024-06-09 19:13:30 +08:00 楼主你这个网页是什么软件来着,有点眼熟,但想不起来了 |
![]() | 3 ogli324 2024-06-09 19:22:54 +08:00 想看和 gpt4/o 的横评 |
![]() | 4 yankebupt 2024-06-09 19:30:39 +08:00 才发现是 7B Instruct 而不是 72B 就可以做这些……这是个民用单显卡能跑的模型啊…… 速度还真是快 |
![]() | 5 Znemo 2024-06-09 20:06:08 +08:00 使用体验上主观感觉不如 qwen 14b ,所有开源模型,每次看介绍和测评都贼厉害,真用起来就不是那么回事 。 |
6 crackidz 2024-06-09 20:10:31 +08:00 @Znemo 其实什么模型都需要根据场景上手 benchmark 一下,当然使用姿势也需要调整一下:有些 GPT-4* 可以直接处理的,换成一些小模型需要用一些额外的姿势,相同的处理方式会看出能力差异 |
![]() | 7 mightybruce 2024-06-09 20:17:57 +08:00 mark 一下。有时间我试试 |
8 kenvix 2024-06-09 20:20:48 +08:00 部署了 Qwen2-72B-AWQ ,针对翻译场景,明显更喜欢说废话,尽管 Prompt 已经要求直接给出翻译结果不要说别的。Qwen2 的感觉 RLHF 没做好,明显比 1.5-110B 倒退了很多 |
9 kneo 2024-06-09 22:53:58 +08:00 用 ollama 试了下 7b 模型,确实有进步,能完成之前完成不了的任务。我之前有两个用 gpt3.5 能轻松跑出来的简单任务,用 ollama 试过所有 4090 卡能跑的模型,没一个能完成的。qwen2 算是第一个能跑出来的。 |
![]() | 10 smalltong02 OP |
![]() | 11 smalltong02 OP |
![]() | 12 smalltong02 OP |
![]() | 13 smalltong02 OP |
![]() | 14 smalltong02 OP |
![]() | 15 smalltong02 OP @mightybruce 您要自己测试的话,需要在 Google Cloud Platform 上注册自己的账号,并且生成 OAuth 2.0 的凭证,下载 Json 格式的 Token 之后再导入到 WebUI 中就可以使用了。 |
![]() | 16 smalltong02 OP |
![]() | 17 smalltong02 OP |
18 CNYoki 2024-06-10 14:58:29 +08:00 via iPhone 现在在用 qwen110b 做实体抽取+推理,感觉跟 gpt4o 还是差很多 |
19 kenvix 2024-06-10 18:42:11 +08:00 @smalltong02 #16 我感觉是需要微调了 ![]() |
20 wwvvance 2024-06-18 18:05:05 +08:00 请教一下, qwen2 模型是什么形式跑起来的, ollama 启动方式是不是不支持函数调用, 要用 qwen-agent, 但我发现 qwen-agent 不兼容 langchain 的类, 有点苦恼不知道如何整合. 提前感谢. |
![]() | 21 smalltong02 OP @wwvvance 对于原生支持 Function Call 的模型,比如 OpenAI ,Gemini 和 Kimi 等,我都使用它们提供的接口来进行函数调用。对于不支持函数调用的模型,我使用预置的提示词技术来实现的函数调用功能。Baidu 和 Qwen 的模型原生是支持这个功能的,但是因为需要安装其它的库有点冲突,所以暂时把它们当成不支持来对待的。 |
![]() | 22 smalltong02 OP |
23 daisyfloor 2024-07-05 16:12:56 +08:00 via iPhone @smalltong02 请问这个做内容生成 翻译 会有内容审查 敏感词 404 的问题么 以及隐私问题 |