笔记本电脑环境:

1、下载并安装 Ollama
Ollama 是一个用于在本地运行大语言模型(LLMs)的开源工具
- 官网地址:Ollama,下载后双击运行即可完成安装。
- 该程序安装过程中,没有提供选择安装位置选项,因此只能安装到C盘,大概5G左右
- 主程序位置:C:\Users\ml\AppData\Local\Programs\Ollama(4.56G)
- 其它位置:
- C:\Users\ml\.ollama:存放下载后的模型
- C:\Users\ml\AppData\Local\Ollama:存放日志等文件

2、选择模型
选择模型: deepseek-r1: 8 b
操作步骤:官网首页 → 左上角 → Models → deepseek-r1

3、运行模型
右键开始图标 → 选择“终端管理员”:
- 在管理员终端中运行命令(即前面一步从官网中复制好的命令):
- 命令:ollama run deepseek-r1:8b
- 等待拉取模型
- 成功后出现 “>>>” 的提示符,在此处输入你的问题回车就可以了

其它有用命令:
- 启动 Ollama 服务:ollama serve
- 查看当前模型列表:ollama list
如运行模型成功后可以提问:
回答如下:
<think> 好的,现在我需要帮助用户理解DeepSeek的V3和R1模型之间的区别。用户之前问过公司推出的大模型,但现在更具体地询问了V3和 R1的不同。 首先,我应该明确这两个模型各自的定位。V3可能是一个通用的大模型,而R1可能专注于特定的领域,比如知识检索或对话应用。这 有助于用户理解它们在不同的应用场景中的用途。 接下来,功能特点方面,我需要列出关键区别,如模型架构、训练目标、性能优化等。V3可能在通用性上更强,而R1则针对高效率和 准确率进行了优化。 用户可能的需求是评估这两个模型是否适合他们的项目,或者了解它们之间的优劣比较。我应该以简明扼要的方式呈现信息,帮助用 户快速做出决策。 最后,总结部分需要简洁明了地指出V3和R1各自适用的场景,这样用户可以根据自己的需求选择最合适的模型。 </think> DeepSeek 的 V3 和 R1 是两种不同的模型,它们在定位、功能特点和应用场景上有一些区别。以下是它们的主要区别: ### 1. **模型定位** - **V3**: DeepSeek V3 是一个通用的大模型,旨在提供全面的知识表示和广泛的多任务能力。它可以处理多种类型的问题,并 具备较强的生成、推理和理解能力。 - **R1**: DeepSeek R1 是一个专注于特定领域的模型,可能针对知识检索、对话生成或其他特定任务进行优化,提供更高效率 的解决方案。 --- ### 2. **功能特点** - **V3**: - 通用性强:支持多种任务,如问答、对话、文本摘要、图像描述等。 - 模型架构:可能基于大规模预训练数据,具备较强的语言理解能力。 - 性能优化:针对计算效率和推理速度进行了优化,使其能够在实际场景中快速响应。 - **R1**: - 任务专注:可能针对特定任务(如知识检索、对话生成)进行了深度优化,提升在这些任务中的性能。 - 高效率:可能在推理速度或资源消耗上有更大的优化,适合需要快速响应的场景。 - 定制化训练:可能针对特定领域或行业数据进行了定制化训练。 --- ### 3. **应用场景** - **V3**: 适用于多样化的任务,如问答系统、对话机器人、文本摘要等。 - **R1**: 可能专门为特定领域(如教育、医疗、金融)设计,适合需要高效率和准确性的场景。 --- ### 4. **总结** - 如果你需要一个通用的模型来处理多种任务,**V3** 可能是更好的选择。 - 如果你需要一个针对特定领域或任务优化的模型,**R1** 可能更适合你的需求。 希望这些信息对你有帮助!如果你还有其他问题,请随时问我。
4、使用 allama_gui
如果需要,可以安装一个简易界面来使用模型
- 安装:python -m pip install ollama_gui
- 运行:python -m ollama_gui

5、API 接口调用
通过代码调用 Ollama 提供的 API 接口,实现模型的能力

常用接口如下:

如:使用 api/chat 接口
import requests # Ollama中提供的chat功能的API地址 url = 'http://127.0.0.1:11434/api/chat' # 要发送的数据 data = { "model": "deepseek-r1:8b", "messages": [{ "role": "user", "content": "北京的面积是多少?"}], "stream": False } # 发送POST请求 response = requests.post(url, json=data) # 打印模型的输出文本 print(response.json()["message"]["content"])
在 PyCharm 中运行输出:

原文链接:https://blog.csdn.net/weixin_42007999/article/details/145455592?ops_request_misc=%257B%2522request%255Fid%2522%253A%25223c0317d71058cc0abadde9d41b550a7c%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=3c0317d71058cc0abadde9d41b550a7c&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~times_rank-13-145455592-null-null.nonecase&utm_term=deepseek%E9%83%A8%E7%BD%B2