+ 我要发布
我发布的 我的标签 发现
公开标签 #DeepSeek
2025年春节期间,DeepSeek的发布震撼全球,标志着人工智能大模型进入“普惠”时代,大模型开始深刻影响我们工作和生活的方方面面。每个人都有必要学习、了解和使用大模型。你是否渴望揭开大模型的神秘面纱?厦大团队带着满满诚意,重磅推出 4 个大模型科普报告!面向社会大众,我们用 140 页 PPT 深入浅出地讲解大模型概念、技术与应用实践,让每个人都能轻松读懂大模型。对高校而言,120页PPT深度剖析 DeepSeek 大模型如何赋能教学与科研,为学术创新注入新动力。针对企业,150页PPT分享大模型技
阿里云推出的AI编码助手——通义灵码,为开发者提供了代码编写、智能问答和bug修复等多种功能。安装通义灵码在IDEA的插件市场中搜索“通义灵码”或拼音“TONGYI”即可找到该插件。点击安装后,支持Java、Python、Go等编程语言,同时兼容VSCode和Visual Studio。安装完成后,点击右侧边栏的通义灵码图标即可打开聊天窗口。通过左下角的下拉菜单,可以在Qwen-2.5、DeepSeek-R1和DeepSeek-V3模型之间切换。智能问答功能通义灵码的智能问答功能显著提升了开发效率,避免
DeepSeek 强调官方部署的版本跟开源版本模型完全一致。第一项:不要使用系统提示词。这个建议其实已经被很多开发者提出过了。第二项:温度参数设置为 0.6。至于原因,DeepSeek-R1 项目中写到:「将温度设置在 0.5-0.7 范围内(建议为 0.6),以防止无休止的重复或不连贯的输出。」第三项:DeepSeek 分享了用于搜索和文件上传的官方提示词。对于文件上传,建议用户按照模板创建提示,其中 {file_name}、{file_content} 和 {question} 是参数。filete
1. 官方推荐方式:完整版 DeepSeek V3 和 R1DeepSeek 官方提供的版本功能最全,尽管开源,但官方对使用体验进行了优化,效果最佳,且完全免费。网页版:支持所有设备和浏览器,手机、电脑均可使用。手机版:在手机应用商店搜索 DeepSeek,下载安装即可。2. 本地部署:精简版 DeepSeek V3 和 R1本地部署适合希望长期稳定使用的用户,只要电脑正常运行,就能持续使用 DeepSeek。不过,个人电脑性能有限,通常只能运行精简版,占用资源较少,但性能也相对较弱。部署步骤:访问 O
DeepSeek 震撼世界的原因不仅在于与 ChatGPT 相媲美的 AI 能力,更在于它的开源特性,任何人都可以自行部署运行DeepSeek R1、V3 等模型。除了官网,我们还可以使用第三方云服务作为替代。在国内最简单直接使用完整版 DeepSeek R1 并免费领取 Token 额度的方式是硅基流动 (SiliconFlow)提供的第三方 API 服务。注册硅基流动账号后,即可领取 2000 万 Token 的免费额度,足够普通用户长期使用。超过额度后的定价与 DeepSeek 官网一致。用户可以
拥有本地LLM超能力:DeepSeek-R1本地运行的四种方法本地运行大型语言模型(LLM)如DeepSeek-R1,可以带来以下优势:成本节约:无需为云服务按使用量付费,显著降低成本。数据隐私:数据完全保存在本地电脑上,无需上传到服务器,最大程度保护隐私。定制与实验:自由调整模型参数,进行各种实验,探索LLM的潜力。离线可用:即使没有网络连接,也能使用LLM。乐趣无限:探索和玩转LLM本身就是一件充满乐趣的事情。以下是四种让DeepSeek-R1在本地电脑上运行的方法:1. Ollama:极简主义的L
硅基流动目前热门的渠道服,注册即送2000万tokens,通过邀请码注册,双方均可获得2000万tokens,社交媒体上,网友纷纷分享邀请码。硅基流动提供多种模型选项,包括低价甚至免费的,虽然tokens充足,但使用稍显复杂,平台有自己的体验中心,提供文本对话窗口,但体验一般,另一种方法是搭配Chatbox:通过硅基流动生成API,粘贴到Chatbox中,Chatbox是一个功能较完整的对话机器人,硅基流动则提供更多个性化空间,如果能够连接DeepSeek的开放中心后台,且账号有余额,也可以直接从官方生
阿里云PAI Model Gallery支持云上一键部署DeepSeek-V3、DeepSeek-R1。在该平台上用户可以零代码实现从训练到部署再到推理的全过程,简化模型开发流程,为开发者和企业用户带来了更快、更高效、更便捷的AI开发和应用体验。第一步:进入Model Gallery页面https://pai.console.aliyun.com/?utm_content=g_1000401510登录PAI控制台,在顶部左上角根据实际情况选择地域。并在左侧导航栏选择工作空间列表,单击指定工作空间名称,进
今天为大家带来一份 DeepSeek-R1 本地部署手册,可以在自己的设备上自由使用这一强大模型,不受宕机困扰。第一步,安装 OllamaOllama 是本地部署大模型的有力工具,能轻松管理和运行各种模型。访问 Ollama 官网,点击下载,选择适合系统的版本,如 Windows 版。下载完成后进行安装,过程简单,按提示操作即可。安装成功后,系统托盘会出现 Ollama 图标。打开官网,点击 “Models” 按钮,找到 DeepSeek-R1 模型,根据硬件配置(如 4090 显卡、24G 显存可选
中国 AI 创业公司 DeepSeek 的 DeepSeek Coder 成为第一个打败 GPT-4 Turbo 的开源代码模型。DeepSeek 上个月发布了混合专家模型 DeepSeek-V2,它的代码模型 DeepSeek Coder V2 就是基于该模型,它支持逾 300 种编程语言,在编程任务中超过了最先进的闭源模型如 GPT-4 Turbo、Claude 3 Opus 和 Gemini 1.5 Pro。在 MBPP+、HumanEval 和 Aider 编程测试中,DeepSeek Code
1