人工智能大数据,工作效率生产力
Ctrl + D 收藏本站,更多好用AI工具
当前位置:首页 » 最新消息

deepseek本地部署测试

2025-03-27 12

deepseek作为国产的开源生成式AI,其具备了非凡的开创性意义。

  • 大语言模型驱动:基于深度求索自主研发的千亿参数大模型,具备强大的自然语言理解、逻辑推理和生成能力。
  • 数学与代码能力突出:在公开评测中,我的数学推理和代码生成能力达到国际领先水平(如Math榜单Top 1,代码任务媲美GPT-4)。
  • 多语言支持:中文处理能力尤其出色,同时支持英文、日文等多种语言交互。
  • 实时联网:可访问最新互联网信息(需授权),解答时效性问题。
  • 多模态交互:支持文本、文件、图像等多种输入方式(部分功能需配合特定接口)。
  • 长上下文理解:能处理超长文本(最高支持128K tokens上下文窗口),适合复杂对话场景。
  • 领域知识覆盖广:涵盖科技、金融、教育、生活等数百个垂直领域。
  • 个性化交互:支持记忆上下文、定制回复风格,提供更人性化服务。
  • 持续进化:通过用户反馈和算法迭代,每日都在优化性能。

可以直接通过它的官网以及应用市场同deepseek沟通。

2、硅基流动
硅基流动提供大量模型,但应该是要收费的,短期使用其实不用管它,直接注册账号玩就行了

当然你也可以使用其他网页提供的deepseek,但这里我不多赘述。

个人认为,如果不是企业或者高校,那么由于硬件限制,本地部署的deepseek性能是非常一般的。

你只需要通过ollama加载deepseek模型,就可以在命令行对deepseek进行对话。

但如果你需要调整生成参数以及联网搜索,你可以通过额外的web-ui来实现,等我后面试试再写。

ollama run deepseek-r1:14b

一般而言,显存为16GB的电脑可以使用deepseek-r1:14b,如果你的电脑性能更好,可以选用deepseek-r1:32b,具体要看设备性能。

deepseek本体参数为671b(即 billion ),而我们本地部署的deepseek一般为14b或者7b,所以如果你感觉你本地部署的模型非常愚笨,这是很正常的。

可以通过上述的指令来装载模型并在命令行对话。到这一步你就已经实现了deepseek本地部署。

在命令行输入/bye即可关闭

/bye

在命令行输入下列语句即可列举所有已安装的模型

ollama list

在命令行输入下列语句即可删除,其中xxxxx是通过列举所有模型所查询到的模型名字,如deepseek-r1:14b

ollama rm XXXXX

诚然,我们不会满足于黑色命令行之间的交互。因此我也了解了几种更好的办法

web-ui可以说是比较知名的chatgpt类ui界面,你可以通过python来进行安装,我还没有进行测试

chatbox可以很方便的挂载模型并进行聊天,但我个人使用时发现生成速度反而变慢了很多。

1)下面这个是deepseek提示库,或许可以帮助你解决如编程和文本生成相关的难题

原文链接:https://blog.csdn.net/weixin_64946562/article/details/145512764?ops_request_misc=%257B%2522request%255Fid%2522%253A%252292cdf893db0455a8db40cdc64431da5e%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=92cdf893db0455a8db40cdc64431da5e&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~times_rank-8-145512764-null-null.nonecase&utm_term=deepseek%E9%83%A8%E7%BD%B2

相关推荐

阅读榜

hellenandjeckett@outlook.com

加入QQ群:849112589

回顶部