application-dev.yml 4.32 KB
Newer Older
何处是我家's avatar
提交  
何处是我家 committed
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
# 项目相关配置
robot:
  # 名称
  name: deepseek
  # 版本
  version: 3.8.8
  # 版权年份
  copyrightYear: 2025
  # 文件路径 示例( Windows配置D:/robot/uploadPath,Linux配置 /home/robot/uploadPath)
  #  profile: /data/ewaytek
  profile: /Users/yang/Downloads
  # 获取ip地址开关
  addressEnabled: false
  # 验证码类型 math 数字计算 char 字符验证
  captchaType: math

spring:
  application:
    name: deepSeek
  mvc:
    async:
      request-timeout: 300000
server:
  port: 26061
  tomcat:
    max-threads: 500
    uri-encoding: utf-8
    # 这个参数定义了Tomcat服务器在任何给定时间可以接受和处理的最大连接数。如果连接数超过了这个值,新的连接可能会被拒绝
    max-connections: 1000
    # 这个参数定义了当所有可能的请求处理线程都在使用时,传入连接请求的最大队列长度。如果队列也满了,新的连接请求可能会被拒绝
    accept-count: 200
    # 这个参数定义了连接器在接受连接后等待显示请求URI行的时间(毫秒)。如果超过这个时间,连接可能会被关闭
    connection-timeout: 120000
    # 这个参数定义了在一个连接上可以发送的最大HTTP请求数量。超过这个数量后,服务器将关闭连接
    max-keep-alive-requests: 100
  servlet:
    context-path: /
    http:
      encoding:
        charset: utf-8
        enabled: true
        force: true
    session:
      timeout: 1800
    tomcat:
      connection-timeout: 1800000 # 设置连接超时时间为1800000毫秒(30分钟)

#  详细信息请访问下面的链接
#  https://api-docs.deepseek.com/zh-cn/api/create-chat-completion
deepseek:
  url: http://10.74.72.24:3001/v1/chat/completions
  # 你的API key
  api_key: sk-1vRj9WeCuIJITRTw1c4844Ab75Af4c9cBa639c47A5Ee3323
  # 使用的模型的 ID。您可以使用 deepseek-chat。
  model: deepseek-r1:14b
  # 介于 -2.0 和 2.0 之间的数字。如果该值为正,那么新 token 会根据其在已有文本中的出现频率受到相应的惩罚,降低模型重复相同内容的可能性。
  frequency_penalty: 0
  # 介于 1 到 8192 间的整数,限制一次请求中模型生成 completion 的最大 token 数。输入 token 和输出 token 的总长度受模型的上下文长度的限制。
  max_tokens: 4096
  # 介于 -2.0 和 2.0 之间的数字。如果该值为正,那么新 token 会根据其是否已在已有文本中出现受到相应的惩罚,从而增加模型谈论新主题的可能性。
  presence_penalty: 0
  # 一个 object,指定模型必须输出的格式。
  response_format:
    type: text
  # 一个 string 或最多包含 16 个 string 的 list,在遇到这些词时,API 将停止生成更多的 token。
  stop: null
  # 如果设置为 True,将会以 SSE(server-sent events)的形式以流式发送消息增量。消息流以 data: [DONE] 结尾。
  stream: true
  # 流式输出相关选项。只有在 stream 参数为 true 时,才可设置此参数。
  stream_options:
    include_usage: false
  # 采样温度,介于 0 和 2 之间。更高的值,如 0.8,会使输出更随机,而更低的值,如 0.2,会使其更加集中和确定。
  temperature: 1
  # 作为调节采样温度的替代方案,模型会考虑前 top_p 概率的 token 的结果。所以 0.1 就意味着只有包括在最高 10% 概率中的 token 会被考虑。
  top_p: 1
  # 模型可能会调用的 tool 的列表。目前,仅支持 function 作为工具。
  tools: []
  # 控制模型调用 tool 的行为。
  tool_choice: none
  # 是否返回所输出 token 的对数概率。如果为 true,则在 message 的 content 中返回每个输出 token 的对数概率。
  logprobs: false
  # 一个介于 0 到 20 之间的整数 N,指定每个输出位置返回输出概率 top N 的 token,且返回这些 token 的对数概率。指定此参数时,logprobs 必须为 true。
  top_logprobs: 10

dify:
  #  api_key: app-i3dujtr9ImSN5jqwx7u8nUkJ
  api_key: app-adP42NC6IWmxJzaaaJ0LNSZF
  api_key_tts: app-adP42NC6IWmxJzaaaJ0LNSZF
  api_host: http://172.27.30.123/v1/
  conversation_url: http://172.27.30.123/api/conversations

tts:
  appKey: 0SYXUBehQc9NQ3ZQ
  accessKeyId: LTAI5tJtpY5u4omeM2CKcvGy
  accessKeySecret: ImT2N1IfOkBT0mfAI9VSnk53duyCXi
  url:
  voice: Aiyu
  volume: 50
  speech_rate: -50
  pitch_rate: 0
  longText: 0