返回顶部
分享到

MAC快速本地部署Deepseek的实现介绍

相关技巧 来源:互联网 作者:佚名 发布时间:2025-02-24 20:05:00 人浏览
摘要

下载安装ollama 地址:https://ollama.com/Ollama 是一个开源的大型语言模型(LLM)本地运行框架,旨在简化大模型的部署和管理流程,使开发者、研究人员及爱好者能够高效地在本地环境中实验和集成

下载安装ollama

地址: https://ollama.com/Ollama 是一个开源的大型语言模型(LLM)本地运行框架,旨在简化大模型的部署和管理流程,使开发者、研究人员及爱好者能够高效地在本地环境中实验和集成最新模型
一路下一步
安装好后
搜索需要的大模型

在这里插入图片描述

2. 根据自己需求, 选择合适的大模型版本

3. 本地电脑配置较差,我安装的14b

地址:

在这里插入图片描述

4. 复制命令 ollama run deepseek-r1:14b 到终端运行

在这里插入图片描述

在这里插入图片描述

看到 success就成功了

可以开始对话了 (首次较慢)

在这里插入图片描述

进阶

不想用黑窗口的话 可以下载cherry Studio
Cherry Studio 是一款开源的多模型 AI 桌面客户端,专为专业用户设计,支持跨平台操作(Windows/macOS/Linux),集成 300+ 大语言模型和本地化部署能力,旨在简化 AI 技术的应用流程,提升工作效率
简单配置就能使用了(网上教程可多 就不赘述了)


版权声明 : 本文内容来源于互联网或用户自行发布贡献,该文观点仅代表原作者本人。本站仅提供信息存储空间服务和不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权, 违法违规的内容, 请发送邮件至2530232025#qq.cn(#换@)举报,一经查实,本站将立刻删除。
原文链接 :
相关文章
  • 本站所有内容来源于互联网或用户自行发布,本站仅提供信息存储空间服务,不拥有版权,不承担法律责任。如有侵犯您的权益,请您联系站长处理!
  • Copyright © 2017-2022 F11.CN All Rights Reserved. F11站长开发者网 版权所有 | 苏ICP备2022031554号-1 | 51LA统计