与 LLM 的交互方式
与 大型语言模型(LLM) 的交互已经不再局限于简单的文本对话。现在存在多种不同的方法来满足不同用户的需求,从普通用户到开发者和研究人员。
在本主题中,我们将探讨:
-
与 LLM 交互的主要方式
-
每种方式的目标用户
-
常见的使用示例
对话式界面(Conversational interfaces)
最常见的与 LLM 交互方式是 聊天界面。
这些界面提供了一种用户友好的对话体验,用户可以输入问题(称为 Prompt / 提示词),并以对话形式获得回答。
例如 ChatGPT 的界面就是典型代表。
在这种界面中:
-
你会看到一个类似聊天软件的 图形用户界面(GUI)
-
可以通过 输入文字或语音 与 LLM 交流
-
聊天历史会保留在屏幕上
-
可以进行 连续追问并保持上下文
这种方式最适合:
-
普通用户
-
内容创作者
-
研究人员
-
想简单使用 AI 完成任务的人
常见任务包括:
-
头脑风暴
-
总结文章
-
翻译文本
-
回答问题
命令行和 REPL 接口
对于 开发者、数据科学家和技术用户 来说,与 LLM 的交互通常会从图形界面转向 命令行。
这种方式包括:
-
CLI(Command Line Interface)命令行工具
-
REPL(Read-Eval-Print Loop)交互式环境
虽然两者不同,但它们都属于 文本化、程序化的交互方式,可以提供更强的控制能力、自动化能力和开发集成能力。
适合以下需求:
-
通过脚本 自动化重复任务
-
在可控环境中 实验和调试模型
-
本地运行模型,更直接地控制软件和硬件
例如一个命令行调用 LLM 的示例:
ollama run llama3 "Ten fun names for a pet pelican"解释:
-
ollama运行一个模型 -
llama3指定模型名称 -
"Ten fun names for a pet pelican"是提示词
模型的回答会直接在 终端(Terminal) 中输出。
REPL 交互模式
REPL 是一种 命令行中的交互式环境。
REPL 的工作流程是:
-
Read — 读取输入
-
Eval — 执行或计算
-
Print — 输出结果
-
Loop — 回到开始等待下一条命令
这种模式特别适合:
-
迭代开发
-
实验模型
-
学习和测试
例如 Claude Code 提供的 REPL 交互环境。
API 和系统集成
开发者如果想在软件中使用 LLM,需要通过 API(Application Programming Interface)。
API 就像一座 桥梁,允许应用程序向 LLM 发送请求并获得响应。
与聊天界面不同的是:
-
开发者 写代码调用模型
-
程序 自动发送 Prompt
-
LLM 返回结果给程序
这是如今 AI 软件功能的基础。
例如:
-
AI 内容生成工具
-
智能客服机器人
-
AI 代理(AI Agents)
API 的主要使用者
这种方式对于以下人群非常重要:
开发者和工程师
- 构建使用 LLM 的应用程序
企业
- 在产品中添加 AI 功能
研究人员
- 构建复杂实验系统
数据科学家
- 将 LLM 用于数据分析流程
API 调用示例
下面是一个使用 curl 调用 API 的概念示例:
curl <https://api.anthropic.com/v1/messages> \
-H "content-type: application/json" \
-H "x-api-key: YOUR_API_KEY" \
-d '{
"model": "claude-sonnet-4-5-20250929",
"max_tokens": 4096,
"messages": [
{"role": "user", "content": "Summarize this article for me: [article text]"}
]
}'这个命令做了什么?
-
向 模型 API 地址发送请求
-
指定使用的模型
-
发送提示词(prompt)
-
API 返回 LLM 生成的结果
AI 在软件中的集成示例
现在很多软件都在 内部集成 LLM。
例如:
IDE 集成
AI 编程助手,例如 GitHub Copilot
可以直接在 IDE 中提供代码补全和建议,例如:
- IntelliJ IDEA
网站 AI 助手
许多网站在界面中嵌入 AI 助手,让用户用自然语言完成任务。
办公软件
AI 被集成到生产力工具中,例如:
-
Google Workspace
-
Microsoft 365
-
Notion
这些 AI 可以:
-
帮助写文档
-
修改内容
-
自动总结
创意设计软件
设计软件也集成了生成式 AI,例如:
-
Adobe Photoshop
-
Canva
用户可以:
-
生成图片
-
自动修改设计
-
使用文本提示编辑图片
控制 LLM 的输出
现代 LLM 应用需要 精确控制模型输出格式。
两个关键技术:
-
结构化输出(Structured Output)
-
流式输出(Streaming)
结构化输出(Structured Output)
当 LLM 需要与其他软件系统交互时,输出必须是 机器可读格式。
通常使用:
JSON
开发者可以要求模型返回符合指定结构的数据。
例如用户问:
“巴黎的天气怎么样?”
模型可能返回:
{ "tool": "get_weather", "parameters": { "location": "Paris, FR" }}程序可以解析这个 JSON:
-
调用
get_weather -
获取天气
-
返回给用户
这就是 AI Agent(AI 代理) 的基础。
流式输出(Streaming)
如果用户需要等待几秒才看到回答,会感觉很慢。
因此开发者使用 流式输出。
原理:
模型生成内容时:
token 一个一个发送
应用可以:
-
实时显示文本
-
看起来像 AI 正在打字
好处:
-
响应更快
-
用户体验更自然
特别适用于:
-
聊天机器人
-
AI 助手
总结
从 聊天界面 到 开发者 API,LLM 的交互方式已经发展出多种模式,以满足不同用户需求。
不同用户的最佳方式:
普通用户
- 使用聊天界面
开发者
- 构建复杂 AI 工作流
企业
- 将 AI 集成到产品中
此外:
-
结构化输出让程序能可靠解析 AI 结果
-
流式输出让对话更自然流畅
这些技术正在推动 更复杂的 AI 应用 的发展。随着这些交互方式不断改进,LLM 将成为数字世界的重要组成部分。
部分信息可能已经过时









