推荐各位利用 ollama 在自有电脑上跑大模型,使用非常方便 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
keepRun
V2EX    Local LLM

推荐各位利用 ollama 在自有电脑上跑大模型,使用非常方便

  •  
  •   keepRun 2024-02-28 16:02:57 +08:00 10189 次点击
    这是一个创建于 657 天前的主题,其中的信息可能已经有所发展或是发生改变。

    ollama 用法跟 docker 很类似,指定 run 哪个模型就会自动去下载使用。

    我用我的 1650 笔记本允许 mistral ,跑起来速度还行。

    模型列表: https://ollama.com/ibrary

    方法: 建议采用 wsl2 运行 ollama ,安装 cuda 后即可利用显卡跑 ollama ,否则会利用 cpu 跑大模型。

    wsl2 安装 cuda 直接用我这个链接即可: https://developer.nvidia.com/cuda-downloads?target_os=Linux&target_arch=x86_64&Distribution=WSL-Ubuntu&target_version=2.0&target_type=deb_local

    24 条回复    2024-07-18 14:18:05 +08:00
    cwyalpha
        1
    cwyalpha  
       2024-02-28 16:08:14 +08:00
    1650 显存多少?能跑什么量级的模型?
    ahsjs
        2
    ahsjs  
       2024-02-28 16:11:42 +08:00
    嗯嗯,我也用的这个,只能跑小模型,谷歌的 gemma 之类的
    o562dsRcFqYl375i
        3
    o562dsRcFqYl375i  
       2024-02-28 16:20:54 +08:00
    确实很方便。至于能跑多大的模型主要看机器的硬件配置吧,跟 ollama 这个工具应该没多大关系
    ChaoYoung
        4
    ChaoYoung  
       2024-02-28 16:22:20 +08:00
    同类 LM Studio 可视化相当不错
    keepRun
        5
    keepRun  
    OP
       2024-02-28 16:28:14 +08:00
    @cwyalpha 显存 4g ,不过 win11 会自动把显存和内存同时用上,所以即使跑 7B 模型也可以,只是速度会慢些
    Rrrrrr
        6
    Rrrrrr  
       2024-02-28 16:42:11 +08:00
    Macbool air M2 可以跑吗,给个教程
    panxiuqing
        7
    panxiuqing  
       2024-02-28 16:43:49 +08:00
    Mac 上用 m1 很快。
    luckyc
        8
    luckyc  
       2024-02-28 16:45:30 +08:00
    早就试过, 没有好用的模型. 有更好的推荐吗?
    PowerDi
        9
    PowerDi  
       2024-02-28 16:45:44 +08:00
    @keepRun 如果是调试大模型,会把内存和显存都用上吗? pytorch
    keepRun
        10
    keepRun  
    OP
       2024-02-28 16:51:34 +08:00
    @PowerDi 应该可以把,这个功能是显卡驱动支持的,系统层面就支持了
    supergeek1
        11
    supergeek1  
       2024-02-28 17:08:47 +08:00
    可以,m1 pro 跑个小模型速度很快
    monsterx2a
        12
    monsterx2a  
       2024-02-28 17:42:02 +08:00
    它和 docker 啥关系? 有啥优势吗?
    kwater
        13
    kwater  
       2024-02-28 18:02:28 +08:00
    ollama 安装后, 跑 17g 模型在 m1 还行,下载速度飞快,
    加载首次等待比较久。

    ollama run gemma:7b-instruct-fp16
    可以自己开多会话


    在 内存紧张就选小的
    ollama run gemma:7b
    dacapoday
        14
    dacapoday  
       2024-02-28 18:02:37 +08:00
    主要是它底层的 ggml 库的功劳,作者是个肝帝,移植了大量 开源的 llm 和 权重
    keepRun
        15
    keepRun  
    OP
       2024-02-28 19:10:42 +08:00 via Android
    @monsterx2a 跟 docker 没关系,只是使用方式像 docker
    McVander
        16
    McVander  
       2024-02-28 22:07:16 +08:00
    m2 max 运行 gemma:7b 速度飞快
    CyouYamato
        17
    CyouYamato  
       2024-02-28 22:13:06 +08:00
    手里有台闲置的 4060,目前测试了 gemma 7B ,2B,llama2 。目前来说,2B 快又还不错。搭配 chatbox 还不错。
    kaichen
        18
    kaichen  
    PRO
       2024-02-28 23:16:05 +08:00
    @Rrrrrr #6

    https://lmstudio.ai/ 下载个客户端,搜索对应大小的模型( apple silicon 是内存的 3/4 可以作为显存),可以先搜索 qwen gguf 找个合适大小的玩玩看

    然后可以直接对话,或者启动一个与 openai api 兼容的 api server
    cyp0633
        19
    cyp0633  
       2024-02-29 08:36:50 +08:00
    怎么在我的 1650 笔记本上就用 CPU 跑 mistral-7b...
    weilongs
        20
    weilongs  
       2024-02-29 10:59:26 +08:00
    目前在用 m2 pro 跑. 客户端本地使用 chat box. 后面考虑是否搞个 Mac 盒子 穿透玩一下.
    skywalkerfc
        21
    skywalkerfc  
       2024-02-29 11:33:35 +08:00
    确实很方便,用公司的 m2 很快,在家用自己的 18 款 intel 就风扇直响
    Rrrrrr
        22
    Rrrrrr  
       2024-02-29 16:01:06 +08:00
    @kaichen #18 好的,谢谢
    freedom1613
        23
    freedom1613  
       2024-03-24 18:21:20 +08:00
    本地跑个小模型,用用沉浸式翻译、Openai-Translator 很不错,感谢推荐
    kangfenmao
        24
    kangfenmao  
       2024-07-18 14:18:05 +08:00
    给你推荐一个支持 Ollama 的本地客户端,可以自动加载 Ollama 下载的模型 https://github.com/kangfenmao/cherry-studio
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     5160 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 35ms UTC 01:29 PVG 09:29 LAX 17:29 JFK 20:29
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86