mobile wallpaper 1mobile wallpaper 2mobile wallpaper 3mobile wallpaper 4mobile wallpaper 5mobile wallpaper 6
1531 字
4 分钟
与LLM交互
2026-03-06

与 LLM 的交互方式#

大型语言模型(LLM) 的交互已经不再局限于简单的文本对话。现在存在多种不同的方法来满足不同用户的需求,从普通用户到开发者和研究人员。

在本主题中,我们将探讨:

  • 与 LLM 交互的主要方式

  • 每种方式的目标用户

  • 常见的使用示例


对话式界面(Conversational interfaces)#

最常见的与 LLM 交互方式是 聊天界面

这些界面提供了一种用户友好的对话体验,用户可以输入问题(称为 Prompt / 提示词),并以对话形式获得回答。

例如 ChatGPT 的界面就是典型代表。

在这种界面中:

  • 你会看到一个类似聊天软件的 图形用户界面(GUI)

  • 可以通过 输入文字或语音 与 LLM 交流

  • 聊天历史会保留在屏幕上

  • 可以进行 连续追问并保持上下文

这种方式最适合:

  • 普通用户

  • 内容创作者

  • 研究人员

  • 想简单使用 AI 完成任务的人

常见任务包括:

  • 头脑风暴

  • 总结文章

  • 翻译文本

  • 回答问题


命令行和 REPL 接口#

对于 开发者、数据科学家和技术用户 来说,与 LLM 的交互通常会从图形界面转向 命令行

这种方式包括:

  1. CLI(Command Line Interface)命令行工具

  2. REPL(Read-Eval-Print Loop)交互式环境

虽然两者不同,但它们都属于 文本化、程序化的交互方式,可以提供更强的控制能力、自动化能力和开发集成能力。

适合以下需求:

  • 通过脚本 自动化重复任务

  • 在可控环境中 实验和调试模型

  • 本地运行模型,更直接地控制软件和硬件

例如一个命令行调用 LLM 的示例:

ollama run llama3 "Ten fun names for a pet pelican"

解释:

  • ollama 运行一个模型

  • llama3 指定模型名称

  • "Ten fun names for a pet pelican" 是提示词

模型的回答会直接在 终端(Terminal) 中输出。


REPL 交互模式#

REPL 是一种 命令行中的交互式环境

REPL 的工作流程是:

  1. Read — 读取输入

  2. Eval — 执行或计算

  3. Print — 输出结果

  4. Loop — 回到开始等待下一条命令

这种模式特别适合:

  • 迭代开发

  • 实验模型

  • 学习和测试

例如 Claude Code 提供的 REPL 交互环境。


API 和系统集成#

开发者如果想在软件中使用 LLM,需要通过 API(Application Programming Interface)

API 就像一座 桥梁,允许应用程序向 LLM 发送请求并获得响应。

与聊天界面不同的是:

  • 开发者 写代码调用模型

  • 程序 自动发送 Prompt

  • LLM 返回结果给程序

这是如今 AI 软件功能的基础

例如:

  • AI 内容生成工具

  • 智能客服机器人

  • AI 代理(AI Agents)


API 的主要使用者#

这种方式对于以下人群非常重要:

开发者和工程师

  • 构建使用 LLM 的应用程序

企业

  • 在产品中添加 AI 功能

研究人员

  • 构建复杂实验系统

数据科学家

  • 将 LLM 用于数据分析流程

API 调用示例#

下面是一个使用 curl 调用 API 的概念示例:

curl <https://api.anthropic.com/v1/messages> \
-H "content-type: application/json" \
-H "x-api-key: YOUR_API_KEY" \
-d '{
"model": "claude-sonnet-4-5-20250929",
"max_tokens": 4096,
"messages": [
{"role": "user", "content": "Summarize this article for me: [article text]"}
]
}'

这个命令做了什么?

  1. 模型 API 地址发送请求

  2. 指定使用的模型

  3. 发送提示词(prompt)

  4. API 返回 LLM 生成的结果


AI 在软件中的集成示例#

现在很多软件都在 内部集成 LLM

例如:

IDE 集成#

AI 编程助手,例如 GitHub Copilot

可以直接在 IDE 中提供代码补全和建议,例如:

  • IntelliJ IDEA

网站 AI 助手#

许多网站在界面中嵌入 AI 助手,让用户用自然语言完成任务。


办公软件#

AI 被集成到生产力工具中,例如:

  • Google Workspace

  • Microsoft 365

  • Notion

这些 AI 可以:

  • 帮助写文档

  • 修改内容

  • 自动总结


创意设计软件#

设计软件也集成了生成式 AI,例如:

  • Adobe Photoshop

  • Canva

用户可以:

  • 生成图片

  • 自动修改设计

  • 使用文本提示编辑图片


控制 LLM 的输出#

现代 LLM 应用需要 精确控制模型输出格式

两个关键技术:

  1. 结构化输出(Structured Output)

  2. 流式输出(Streaming)


结构化输出(Structured Output)#

当 LLM 需要与其他软件系统交互时,输出必须是 机器可读格式

通常使用:

JSON

开发者可以要求模型返回符合指定结构的数据。

例如用户问:

“巴黎的天气怎么样?”

模型可能返回:

{
"tool": "get_weather",
"parameters": {
"location": "Paris, FR"
}
}

程序可以解析这个 JSON:

  1. 调用 get_weather

  2. 获取天气

  3. 返回给用户

这就是 AI Agent(AI 代理) 的基础。


流式输出(Streaming)#

如果用户需要等待几秒才看到回答,会感觉很慢。

因此开发者使用 流式输出

原理:

模型生成内容时:

token 一个一个发送

应用可以:

  • 实时显示文本

  • 看起来像 AI 正在打字

好处:

  • 响应更快

  • 用户体验更自然

特别适用于:

  • 聊天机器人

  • AI 助手


总结#

聊天界面开发者 API,LLM 的交互方式已经发展出多种模式,以满足不同用户需求。

不同用户的最佳方式:

普通用户

  • 使用聊天界面

开发者

  • 构建复杂 AI 工作流

企业

  • 将 AI 集成到产品中

此外:

  • 结构化输出让程序能可靠解析 AI 结果

  • 流式输出让对话更自然流畅

这些技术正在推动 更复杂的 AI 应用 的发展。随着这些交互方式不断改进,LLM 将成为数字世界的重要组成部分。

分享

如果这篇文章对你有帮助,欢迎分享给更多人!

与LLM交互
http://s0ralin.github.io/posts/与llm交互/
作者
まつざか ゆき
发布于
2026-03-06
许可协议
CC BY-NC-SA 4.0

部分信息可能已经过时

封面
Sample Song
Sample Artist
封面
Sample Song
Sample Artist
0:00 / 0:00