当前位置: 首页 > news >正文

AI概念

  • LLM
    大型语言模型(Large Language Model)的缩写。是一种通过海量文本数据训练,能够理解和生成人类语言的人工智能系统

  • token
    AI大模型调用中,模型处理文本的基本单位。各家算法切字逻辑,但是大致一个token约等于一个汉字左右。 具体可以看各家厂商提供的切词可视化工具OpenAl:https:/lplatform.epenai.com/tokenizer
    文心一言:https://console.bce.baidu.com/support/#/tokenizer
    阿里干间:https://dashscope.console.alivun.com/tokenizer

  • 模型参数
    调用模式时可以设置的一些参数,每个模型支持的参数会有一些参数,都是大部分参数都是相同的
    常见参数:
    Temperature(温度):控制生成文本的随机性。值越低(如0.2),输出越确定、保守和专注;值越高(如0.9),输出越具有创造性和多样性,但也可能更不连贯
    Top·p(核采样):与Temperature类似,用于控制采样的多样性。它从累积概率超过阈值p的最可能候选词中随机选择。较低的值(如0.5)限制选择范围,输出更可预测;较高的值(如0.9)则扩大选择范围o
    Max Tokens (最大生成长度):限制模型单次响应所能生成的最大token数量。设置过短可能导致回答被截断。

  • 流式响应
    类似于我们使用Deepseek时AI给我们一个字一个字的回答的效果。
    目前流式响应主要是使用SSE技术实现的。

  • message
    目前主要是4种消息角色。
    osystem(系统消息,用于设定AI的行为和角色)
    ouser(用户消息,来自用户的输入)
    o assistant(助手消息,来自AI的回复)
    otool(工具调用消息)

  • Prompt(提示词)
    是您传递给A1模型的指令或问题。简单来说,Prompt是你用来告诉A"做什么"和"怎么做"的话,

http://icebutterfly214.com/news/512/

相关文章:

  • [Mirror] LinuxMirrors: Linux 一键换源项目
  • 20232309 2025-2026-1 《网络与系统攻防技术》实验三实验报告
  • 衡量模型生成图片质量的指标
  • 【转载】‘tensorrt.tensorrt.Builder‘ object has no attribute ‘build_cuda_engine‘
  • 20232403 2025-2026-1 《网络与系统攻防技术》实验三实验报告
  • WPF datagrid mvvm loaded 100M items,prism.wpf,prism.dryioc
  • sg.绑定键盘事件
  • 壁纸收集
  • Windows11安装miniconda
  • 10.27 CSP-S模拟40 改题记录
  • 详细介绍:Redis多租户资源隔离方案:基于ACL的权限控制与管理
  • 20251027周一日记
  • 学校协同云盘怎么选?2025年10大热门教育网盘推荐与对比
  • GPU集群之间的交互
  • CF1267G Game Relics
  • 102302115方朴第一次作业
  • 解题报告-梦熊 CSP-S2025 模拟赛T2
  • 鄙“站”麻将和算24,刷新后会换
  • 20232422 2025-2026-1 《网络与系统攻防技术》实验三实验报告
  • 20232404 2025-2026-1 《网络与系统攻防技术》实验三实验报告
  • 「WC2014-紫荆花之恋」题解
  • 谢谢你周医生
  • 来源未知
  • Date 10.27
  • 10.27及动手动脑
  • go包装bing搜索
  • 鼾声识别芯片方案和睡眠产品的应用场景
  • 2025年工程管理软件公司综合推荐榜:助力建筑行业数字化升级
  • Excel高性能异步导出完整方案!
  • 2025年多功能综合杆厂家排名前十推荐