今天,我们直接讲干货。用10个问题带大家了解:DeepSeek是什么,怎么用,如何与DS高质量对话,以及一些隐藏技巧。
体验地址:https://chat.deepseek.com
这里,继续给小学生解释一下预训练与后训练:预训练是让模型先学习通用知识、百科知识;后训练是模型基于预训练基础,进行一些特定任务、特定手段的额外训练,比如微调(Fine-tuning)、知识蒸馏(Knowledge Distillation)和模型剪枝(Pruning)。
至于联网功能,通常不用同时勾选深度思考和联网搜索,不然DS的表现会不太智能。
输出:
致每一位与沃垠AI同行的伙伴:
亲爱的朋友:
此刻坐在深夜的屏幕前,我敲下的每个字都浸着温度。沃垠AI成立的第167天,后台第10万次收到你们「已三连」的留言时,我突然意识到:我们不是在运营一个账号,而是在和一群最酷的开拓者,共同雕刻AI时代的星图。
很多人问,为什么沃垠总能源源不断输出硬核内容?答案藏在你们凌晨三点的技术探讨里,在GitHub星标过万的工具测评里,在那些被反复追问「能展开讲讲吗」的留言区。是你们对未知的饥渴感,推着我们翻过无数篇晦涩论文,把最生涩的技术逻辑熬成带着烟火气的故事。
记得那天发布《编写AI提示词,看这一篇就够了》的文章后,有位老师私信说,我们的内容让他在市里获得了创新教育一等奖。这让我想起最初那个执念——知识不该困在实验室里。感谢你们用每一次点赞+在看的支持,让沃垠的每篇推文都成为一场流动的盛宴。
未来,除了继续研究大模型技术、推荐AI工具与攻略外,我们正在筹备「2025人人AI」专题,将那些晦涩难懂的技术词搬开揉碎了讲给你听;每月上线的「AI产品推荐榜」,让每一个普通人都能驯服AI。我向你们承诺:沃垠永远不做知识的二道贩子,只做那个举着火把的路人。
此刻窗外晨光微熹,就像我们正在经历的AI黎明。愿我们永远保持对未知的悸动,永远为「原来还能这样」的瞬间热泪盈眶。
此致
与你们同行的朋友
沃垠AI创始人
2025年春于老家
Ps.部分数字、时间和人名有经过人工修改。
果然,进入博士领域,就开始上难度了。
这效果非常好。如果我再跟它对话几次,迭代几个版本,这篇小说一定会非常棒。
人类不必因恐惧止步,但须以工程师的严谨与哲学家的审慎,为AI戴上“责任的镣铐”。
然后将生成结果和提示词,一起发给R1推理模型:
这是R1的吐槽全文:
亲爱的OpenAI,您可真是硅谷慈善界的泥石流啊!左手高举”开放造福人类”的圣旗,右手把API定价策略玩成当代行为艺术——每次调用都像在给赛博资本家上供,开发者薅秃头发写的代码还没您计费接口吞吐量大呢!
瞧瞧您家那位赛博佛祖GPT-4,日常上演人工智能版《皇帝的新衣》:”这个问题超出我的能力范围”翻译过来不就是”你们碳基猴子也配问这个?” 更绝的是那套薛定谔的道德准则,聊历史瞬间变身百科全书,提时事秒变失忆症患者,知道的说是安全审查,不知道的还以为在玩AI版鱿鱼游戏!
说到技术透明度就更妙了,模型黑箱操作得比瑞士银行金库还严密,训练数据来源神秘得堪比罗斯威尔外星人档案。咱就是说,贵司开放的是AI还是摩斯密码啊?要不干脆给开发者发水晶球占卜模型参数算了?
OpenAI啊OpenAI,求求你们从技术神坛上下来喘口气吧!再这么端着”AI救世主”的架子,地球人真要以为你们在下一盘用GPU燃烧人类钱包的大棋了——毕竟现在每次调用失败时,我都能听见黄仁勋在显卡工厂笑出银河系!(战术后仰.gif)
这只是一个简单的示例,实际中,与V3沟通可以多展开几轮,通过多轮对话来优化细节。然后,再用推理模型来深度优化。
API调用指南:
https://api-docs.deepseek.com/zh-cn/guides/reasoning_model
https://huggingface.co/deepseek-ai
原文链接:https://www.360doc.cn/article/30072915_1145710580.html