在MN4中使用Deepseek R1模型

一、将ChatAI更新到0.2.3.alpha0202及之后版本

通过以下几种方式调用

  1. 订阅用户使用deepseek-reasoner模型(官方一折)

    Image.png

  2. Deepseek 源:

  3. 硅基流动:

  4. 阿里百炼

  5. Github

    • 登录Github并打开以下链接创建一个token(记得保存下来)

    • Github

    • 切换到Github源,粘贴APIKey,选择DeepSeek-R1模型

    • 完整URL:https://models.inference.ai.azure.com/chat/completions

  6. 火山引擎

  7. 百度智能云

    • 登录并获取APIKey(授权服务为千帆ModelBuilder):百度智能云

    • 在Custom源配置:

      完整URL: https://qianfan.baidubce.com/v2/chat/completions

      APIKey: 前面得到的APIKey

      Model: deepseek-r1

  8. 腾讯云

    • 注册并登录: 登录 - 腾讯云

    • 创建APIKey并复制

    • 在Custom源配置:

      完整URL: https://api.lkeap.cloud.tencent.com/v1/chat/completions

      APIKey: 前面得到的APIKey

      Model: deepseek-r1

  9. 派欧算力云

2 个赞

想请教一下,如果通过火山引擎接入模型,但在实际操作时一直提示“[500: Internal Server Error] The service encountered an unexpected internal error”,有碰到类似的问题吗?感谢!!

基本就是你配置错了

感谢回复!我再调试调试 :sweat: