Lazy loaded image
Lazy loaded imageHuman in the loop 人类和 AI 一起干活
Words 6728Read Time 17 min
2025-9-11
2025-10-5
type
status
date
slug
summary
tags
category
icon
password
💡
AI就像一个助手而不是老板。它不会完全替代你工作,而是在你需要时提供建议和帮助。比如,它会建议文字修改、提供配色方案,或在你有灵感时及时补充细节。它就像你身边那个懂你创作节奏的好搭档,在关键时刻给出点睛之笔。
 

Highlight text content 突出显示文本内容

写字时,是不是常给自己标注「这里要改」,或想让邮件更礼貌?
"Highlight + AI" 就是把这些直觉动作搬到屏幕上:选中文字,AI 就会建议:「要不要改得更简洁?」
或「这段逻辑可以调整」。它就像一个贴心的编辑,润色但不抢稿,而非那个擅自重写的"AI 霸总"。
 
notion image
Lex.page 把 AI 写作助手变成一个“随叫随到”的团队成员。通过高亮文本+@lex 直接提问,用户可以在不打断写作流程的情况下,局部请求润色、风格转化、语言修改等操作。这是 AI 写作中最像“搭档”的协作方式。
 
AI-UX 模式(AI-UX Patterns)
  • Human in the loop:强调用户持续控制流程,AI 只在用户指定区域进行协助
  • User curation:AI 给出建议,最终由用户决定是否采纳
 
用户意图(User Intention)
  • 在长文写作中快速优化部分句子或段落
  • 指定语气风格,如“让这段更口语一点”
  • 在保持语义不变的前提下,改写表达方式
  • 多轮交互中精细调整内容,逐步打磨
 
专业逻辑拆解(分析亮点)
  1. @AI 调用机制极具文本上下文感
    1. 用户只需输入 @lex,即可唤起 AI 对当前高亮内容进行处理,实现“在文中原地交互”,无需跳转界面、复制粘贴 prompt。
  1. 高亮 = 输入,问题 = 指令,返回 = 直接替换草稿
    1. 采用“自然动作+自然语言”方式触发 AI,降低使用门槛,让每位用户都像在和编辑对话。
  1. 语气风格可自定义,用最通俗的语句下达指令
    1. 例如“Can you make this more casual?” 就能触发 AI 生成一个口语版的句子,完全不用 prompt 设计经验。
  1. AI 返回内容可复制、可改写,也可以继续对话
    1. 用户可以基于返回结果继续提问,形成一轮更自然的上下文对话链。
  1. 加载状态简洁直观,避免中断写作节奏
    1. AI 响应过程以“writing…” 形式轻量展示,非模态交互,保障写作流畅性
 
notion image
ChatGPT 的这组设计展示了文本高亮在对话系统中作为“微入口”的新范式——用户选中一段内容,就能在其基础上直接提出修改建议或生成命令,极大减少上下文重述成本,带来“点哪问哪”的自然交互流。
 
AI-UX 模式(AI-UX Patterns)
  • Human in the loop:用户明确告知 AI 要操作的范围,避免全局响应
  • User curation:AI 给出多种建议,用户决定是否接受或迭代
 
用户意图(User Intention)
  • 快速生成基于某一句话的变体(如更有趣、更搞笑、更正式)
  • 只优化局部,而不打断整段内容的结构
  • 借助 AI 激发更多创意点子(如游戏题库、文章标题等)
  • 在 AI 提供的结果基础上进行二次提问或“细调”
 
专业逻辑拆解(分析亮点)
  1. 高亮即上下文,输入即命令,无需另起对话线程
    1. 用户选中“Never have I ever traveled to another country.”,直接输入“suggest more quirky and funny ones”,AI 就知道用户想要该句的搞笑版扩写。
  1. 无须重新定义上下文,显著降低 cognitive load
    1. 过去我们与 AI 互动要“带上下文重述”,这组交互把高亮当作 context anchor,大幅简化表达成本。
  1. 生成动作与当前内容同屏呈现,减少跳出感
    1. 生成的内容不是跳转到新对话框,而是直接“接着这句往下写”,保持沉浸感。
  1. 加载状态轻量非打断式,文字边生成边可见
    1. 用户能看到 AI 实时“打字”,感知明确、反馈即时,增强对系统的信任感。
  1. 用户反馈机制轻量融入右上角,支持随时评分
    1. 帮助系统收集微调数据,同时不干扰写作节奏。
 

Highlighting visual content 突出显示视觉内容

遇到过这种情况吗:看到图片中有些细节想改,但不知如何描述?最简单的方式就是直接圈出来!「高亮视觉内容」功能让AI理解你的"指哪改哪"动作。
notion image
Vercel v0 展示了一个令人印象深刻的「Highlighting Visual Content」模式:用户在界面中选中任意视觉元素(如按钮、标题、文字),通过提示进行修改(如放大字号、修改文案、增强对比度),AI 自动执行并返回编辑结果。它不仅实现了局部微调的智能化,还保持了人类设计师的主导权。
 
AI-UX 模式(AI-UX Patterns)
  • Highlighting visual content:通过圈选、点击组件激活局部编辑指令
  • Human in the loop:人选定目标、发出修改请求,AI 做回应
  • User curation:AI 给出结果,是否采用仍由用户决定
 
用户意图(User Intention)
  • 微调界面视觉效果(如文字大小、颜色、按钮 CTA)
  • 快速进行 A/B 实验(不同措辞、视觉风格、内容变体)
  • 降低设计协作成本(非设计师也能发起明确请求)
  • 保持人工主控、但提升执行效率
 
入口触点(Entry Touch Points)
  • 直接点击任意可编辑的视觉元素(标题、段落、按钮)进入编辑模式
  • 悬浮工具栏出现:支持“Pick and Edit”,也可以输入指令
  • 示例指令如:“Make the heading larger and darker”
 
AI 交互界面(Main AI-UX Interaction)
  • 用户选择某元素后,会自动出现提示区域(如浮层)
  • 输入目标修改内容(如:放大文字 / 替换 CTA)
  • 显示 AI 编辑后的建议文本或样式
  • 可直接点击 Update 应用,也可忽略、再改
 
加载状态(Loading State)
  • 动画形式的“转圈”图标(进度反馈)
  • 状态标签:例如“Writing...”表示 AI 正在生成新内容
  • 页面右上角可查看版本历史(v1、v2等)支持回退操作
 
输出示例(Example Output)
  • 原始标题文字 → 被增强为“Experience with AI”
  • 增加副标题、改进语气,使内容更清晰、富吸引力
  • CTA 区域改写为:“Learn More (10,000+ users)”,加入社证信息
  • 所有输出都实时渲染在页面中,方便对比原始版本
 
快捷说明(Quick Explanation)
  • 任何组件都可以高亮 + 提示词组合进行编辑
  • 用户通过自然语言输入修改要求
  • 可执行操作包括:改文字、调字号、调整颜色、添加说明等
 
版本记录(History)
  • 编辑历史以“v1/v2”形式记录
  • 支持查看改动前后差异
  • 保证用户对每次变更可见、可控、可回退
 
notion image
Photoshop 的「Generative Fill」展现了极具代表性的 Highlighting Visual Content 模式。用户只需圈选画面中的任意区域,通过自然语言指令描述生成内容(如 cloud、mountain),AI 就能生成多个高质量图像选项供挑选,并保留操作历史。
这是一种兼顾「人工选择 + AI 生成」的协作模型,在传统创作软件中引入 AI 直觉操作,让复杂图像编辑流程变得即时、轻量、高效。
 
AI-UX 模式(AI-UX Patterns)
  • Highlighting visual content:通过圈选画面区域作为“输入”
  • Human in the loop:AI 提供多个图像版本,用户从中挑选
  • User curation:最终选择仍由人类主导
 
用户意图(User Intention)
  • 替换画面中某一块内容(例如:天空、地面、建筑)
  • 在不改变整体构图前提下“添画”或“重画”某部分
  • 借助 AI 提供多个创意参考版本,加快选图与创作效率
  • 降低绘图、抠图、合成等操作门槛
 
入口触点(Entry Touch Points)
  • 手动圈选画布上的某一块区域(使用套索工具、矩形工具等)
  • 弹出「Generative Fill」指令输入栏
  • 用户可输入生成提示词(Prompt),也可留空(自由探索)
 
AI 交互界面(Main AI-UX Interaction)
  • 填写提示词(如 “Cloud”)后,点击 Generate
  • 系统生成 3 个或更多备选图像(Variations)
  • 用户可浏览左右图像、点击点赞或踩、也可一键替换
  • 生成结果默认叠加在原图选中区域中
 
加载状态(Loading State)
  • 显示进度条 + “Generating” 字样
  • 提供取消按钮(Cancel)以终止生成
  • 保证生成过程可感知、不中断
 
输出示例(Example Output)
  • 原图是蓝天画面,用户选中某块空白区域,输入 “Cloud”
  • AI 自动生成逼真的白云图像,完美嵌入画面
  • 可在多个版本之间切换,选择最合适的合成效果
  • AI 内容与原图融合度极高,保留原始结构、光影关系
 
操作记录(Action History)
  • 用户每次生成记录都会保留,可随时回退到上一步
  • AI 会记录使用的提示词 + 提供的图像变体
  • 可再次修改 prompt 或重选区域进行新一轮生成
 

Work with me 与我一起工作

用 AI 就像找个写作搭子。它不是一次性完成所有工作,而是这样:
你:这段逻辑有点乱 AI:我帮你理顺,要加过渡句吗? 你:好,改得口语点 AI:完成了,标题也优化了
它不抢活也不啰嗦,只在需要时简单提醒:
"Need help?" "Want a summary?" "Got a better version."
像个好搭档,既不打扰你,又能助你前进。
 
notion image
Granola 的亮点在于不做“统一总结”,而是围绕每位用户自己的 quick notes,进行个性化增强。这正是 “Work with me” 模式的核心:你写你要的,我来补全你要的,而不是强加一个统一模板。
 
入口触点(Entry Touch Points)
  • 在会议笔记界面直接输入
  • 支持快捷格式标记(如:#、@、项目标签等)
  • 可选择自动模式下的增强功能:AI 会读取上下文+用户输入,辅助生成内容
  • 不中断输入流、无需跳转界面,AI 是“隐身协作者”
 
预设模版(Pre-made Templates)
  • 提供常见场景下的模板:客户沟通、面试笔记、招聘、1 对 1
  • 用户也可以自定义模版(my templates)
  • 所有模版都是 可手动选择启用的,AI 不会自作主张插入
  • 设计思路是“快速落笔”,而不是“替你决定结构”
 
加载状态(Loading State)
  • 显示“Enhancing notes...” 等动态提示
  • 输出不是一次性生成,而是围绕当前已有内容逐步展开
  • 避免误会 AI 无响应,且高亮生成内容的过程(例如段落逐行更新)
 
AI 交互界面(Main AI-UX Interaction)
  • 用户可以先打草稿,AI 基于草稿增强内容
  • 增强逻辑围绕用户已有输入展开,不是覆盖、而是扩写
  • 支持上下文联动(如:用户写“请补充总结”,AI 会回顾前文并补写)
  • 所有增强建议都可以一键接纳或略过,用户有最终掌控权
 
输出示例(Example Output)
  • 输出内容保留原始结构,增强部分有层级样式、标注、项目符号
  • 例如:“Feedback and Value” 项下自动归类出多个要点
  • 所有内容都可以立即编辑、复制、整理成报告
  • 用户添加的笔记成为生成核心,体现 “人机共写” 特性
 
notion image
Dovetail 的“Work with me” 模式非常典型:AI 不抢活、不全自动,而是通过“建议式高亮”,协助研究者更高效提取洞察。这种保留人工判断权的协作方式,能让用户在 AI 帮助下保持深度掌控。
 
入口触点(Entry Touch Points)
  • 用户在访谈或用户反馈中打开“Highlights”界面,点击 Suggest,触发 AI 建议式高亮
  • AI 自动读取整段话,识别可能有价值的语句、片段
  • 用户可以手动点击“接受”或“忽略”建议,增强控制感
  • 属于轻量级触发,保持上下文流畅,不影响阅读节奏
 
加载状态(Loading State)
  • 高亮建议生成前,显示提示:Suggesting…
  • 可视化标记“建议数”或“已处理数”,让用户知道当前系统处理进度
  • 多段落建议批量处理,一起返回,适合长文本提取
 
AI 交互界面(Main AI-UX Interaction)
  • AI 会用颜色标注出建议的句子,并显示选项框(Accept / Dismiss)
  • 建议不直接变为正式高亮,始终需要人工确认才能生效
  • 用户也可在任意文本上自行手动高亮,AI 不限制输入
  • 同一段文本可以多轮高亮,AI 不会覆盖已有标注,只作补充
 
自定义与人类保留控制权(Customisation)
  • 可在建议片段上编辑、添加备注,或修改标签归类
  • 可与原始访谈视频 / 音频同步定位,确保理解不偏离上下文
  • 所有高亮都与项目结构、分析视图联动(如后续汇总、主题归纳)
  • 系统不会“自我判断价值”,而是把建议权交还用户处理
 
输出示例(Example Output)
  • 所有已确认的高亮,自动汇入 Highlights 汇总列表
  • 用户可统一查看、筛选、合并标签,形成清晰的“用户声音证据池”
  • 后续可以进行可视化分析、汇报展示或报告提炼
  • 全流程强调透明感,每一步用户都看得见、改得动
 
notion image
 
Captions 不是全自动替你剪片,而是通过预设风格、分段处理、智能高亮,让你轻松掌握剪辑节奏,既节省时间又保留创作自由。
 
入口触点(Entry Touch Points)
  • 用户从主界面进入“AI Edit”,选择 AI Shorts、AI Ads、AI Creators 等具体剪辑任务
  • 无需输入文字 prompt,仅通过视频导入和任务类型确定上下文
  • 可选择“仅一人说话”、“竖屏视频”、“未经剪辑原片”等前置要求,确保 AI 工作稳定性
 
预设模版(Pre-made Templates)
  • 系统提供三种剪辑风格模板:Impact(动感)、Cinematic(电影感)、Paper(创意风)
  • 用户选择后,AI 自动执行匹配剪辑逻辑、转场节奏、字体样式等
  • 模板降低了 AI 使用门槛,也形成差异化视觉结果
 
AI 交互界面(Main AI-UX Interaction)
  • 中心视频编辑界面显示当前剪辑片段与使用风格
  • 下方展示多项控制项(Captions / Zoom / Sound / Tempo 等)
  • 用户可保留 AI 自动生成结果,也可以点击任一功能区进行微调或替换
  • AI 动作明确标记,增强透明感
 
加载状态(Loading State)
  • 视频导入后,会出现 AI 正在处理提示:“AI Edit – Watch while edits are applied automatically”
  • 实时显示剪辑时间轴上哪些区域被处理,以及对应处理类型(变焦、滤镜、字幕等)
  • 帧级别分块展现,防止用户误以为“黑箱处理”,提升信任
 
操作记录回退(Action History)
  • 每当 AI 修改视频中的元素(如变焦、添加字幕、切换节奏),对应功能区会被高亮
  • 用户可点击进入查看具体变化,并进行回退或替换
  • 是一种“结构化记录 AI 贡献”的方式,便于用户精修
 
输出示例(Example Output)
  • AI 自动为视频添加字幕,并与人物说话同步对齐
  • 底部的 Captions 区块被高亮,提示这一步由 AI 生成
  • 输出视频风格明显、节奏统一,但用户仍可修改字幕文案或段落排序
  • 结果呈现是 AI 与人协作而非全自动批处理的体现
 

Real-time dreaming 边想边做

这个模式就像是:“我一边想,AI 一边跟着我动。”不是你写一堆 prompt 然后点击 “生成”, 也不是你改了东西等半天出结果,而是:你拖一下,AI 马上给反馈;你换个词,马上出画面。
 
notion image
Meta AI 通过极致实时的生成反馈,让用户获得近乎“梦境式”的内容体验:边打字边看图变,一秒进入创作状态,无需任何点击与等待。
入口触点(Entry Touch Points)
  • 用户通过输入框直接发起想象式 prompt,例如:
    • imagine a panda eating an ice cream wearing sunglasses on beach
  • 不需要点击复杂操作,一句话触发整个流程
 
Main AI-UX interaction(主交互界面)
  • 界面左侧保持对话上下文(conversation thread),右侧即时渲染生成的图像
  • 用户只需调整 prompt 文案,AI 会立即响应新输入,图像动态变化
  • 全程无停顿切换,无中断,维持沉浸式体验
 
Loading state(加载状态)
  • 明确强调:「没有加载状态,这是实时的!
  • 图像生成过程中,系统通过模糊过渡或 placeholder 图片平滑显示生成结果,完全隐藏系统处理细节
 
Customisation after result(生成后的定制操作)
  • 生成图像后,用户可直接点击图片进行动画处理或更改 prompt 再生图
  • 系统支持:
    • Edit 按钮 → 进入更精准微调模式
    • Animate 按钮 → 将静图转换为视频
    • 可复用、重塑、循环生成,保持用户在创作流程内
 
Example output(示例结果)
  • 高保真图像直接嵌入主对话中,用户可以复制、保存、继续对话、生成动画
  • 图像生成带有随机性,每次细调 prompt 都可探索不同创意空间
 
专业逻辑亮点总结:
  1. 文字驱动 → 实时视觉生成:不再是“写完 prompt 点一下生成”,而是边打字边看图自动长出来
  1. 无缝反馈,连贯操作:隐藏掉所有传统生成 AI 的等待与确认动作
  1. 保持主线创作流:每一次微调都不会中断用户注意力,生成结果即反馈结果
  1. 支持二次创作循环:Edit/Animate 功能,延展出更多创作可能,而不是“一次性生成”
 
notion image
Krea AI 是真正意义上「所见即所得」的视觉创作工具。在它的系统中,AI 已不再是一个“生成”工具,而是一个实时反应的共创搭档——你动一下,图就变一下,灵感完全不需要等。
 
入口触点(Entry Touch Points)
  • 用户通过输入一个非常简单的 prompt,如:pink frog(粉红青蛙)
  • 无需点击按钮、提交、等待,只需输入文字就立即触发生成
  • 入口体验极简,prompt 框与画面几乎无缝整合在界面中
 
Main AI-UX interaction(主交互界面)
  • 显示左侧为几何图形(如粉色圆形),右侧为生成图像
  • 画面分区明确,生成内容实时更新,随着输入、图形移动、prompt 调整同步变化
  • 整个过程无“生成按钮”,动作即请求、拖动即变化
 
Loading state(加载状态)
  • 明确提示:“没有加载状态,这是实时的!”
  • AI 输出过程隐藏在交互动作之后,不中断、不干扰
  • 用户看到的只有视觉结果的变化,而不是“AI 正在思考”
 
Customisation after result(生成结果的定制)
  • 结果不是“完成图”,而是可实时调节的动态画布
  • 用户可以拖动左侧的粉色圆形,实时改变图像中青蛙的形态、风格、细节
  • 也可以直接修改 prompt,立即出现新版本
  • 更像是一个视觉调色板,而不是传统“生成→看结果”的工具
 
Multi-modal input(多模态输入)
  • 支持结构提示 + 文本 prompt 的组合输入,例如:
    • 结构:上传鱼的轮廓图
    • prompt:fish made out of porcelain(瓷器做的鱼)
  • AI 实时根据结构参考 + 描述生成高一致性的图像结果
  • 极大程度释放用户的表达自由度和掌控力
 
Example output(示例结果)
  • 输出图像质量高、细节丰富
  • 无需反复迭代确认 prompt,也不需要手动点“生成”
  • 用户每次的视觉动作和语言指令都会同步转化为图像反馈
  • 整体是一个持续演化的画面,而非静态的最终图
 
专业亮点逻辑总结:
  1. 视觉调参新范式:Krea 并非“提示词生成图”,而是“图像 = prompt + 动态操作”的实时共创模型
  1. 空间+语言混合驱动:支持结构草图 + 文本描述共同驱动图像变形,这是一个典型的多模态交互设计突破口
  1. 打破等待 → 实时响应:不仅没有 loading bar,连“结果”这个概念都被重构为一个可操控的状态流
  1. 用户感知是“控制”,而不是“请求”:让用户感到“我在创作”,而非“我在等 AI 给我一个答案”
 
notion image
Decohere 不是让你一键生成图像,而是让你可以逐步完善、实时预览、连续微调。它构建了一种“可对话”的 AI 图像创作体验 —— 就像你和 AI 一起搭积木,一块一块加上去,图就越来越像你想要的样子。
 
入口触点(Entry Touch Points)
  • 用户在输入框中输入完整 prompt,如:
    • a cat reading a book in a library setting cozy environment
  • 系统自动开始生成,无需点击“生成”按钮
  • 支持追加或编辑 prompt,实现连续性构图
 
Loading state(加载状态)
  • 有轻微的 loading 动画(顶部有进度条提示),但极短暂
  • 页面保留 prompt 编辑框,用户知道 AI 正在响应指令
  • 明确强调:“Slight loading, good user feedback!”(轻量加载,用户反馈好)
 
Main AI-UX interaction(主交互界面)
  • 生成区域为主图展示区,prompt 编辑区叠加在图下
  • 用户可以在已有图片基础上,继续追加描述
    • 例如:
      generate an image of cat where they are reading books around library and it was surrounded by mountain region and wear cat a glass and a cap
  • 整个体验是**“持续构图 + 局部增强”**,不是一次性生成即完结
 
Customisation(生成后的调整)
  • 用户可以左右滑动不同变体,选择更喜欢的版本
  • 选定版本后,可直接在其基础上输入新的 prompt 进行微调
  • 整体体验就像:
    • “先画轮廓 → 选择构图风格 → 再涂细节 → 再加配饰”
  • 真正做到“逐帧生长”,用户可对每一个阶段保持控制权
 
Multi-modal input(多模态输入)
  • 支持结构参考图 + 文字 prompt 的结合使用:
    • 例如上传人物照片 → prompt:aztec warrior
  • 最终生成图像会保留人物五官结构,但风格、服装、背景全部替换为 prompt 所描述的内容
  • 是一种非常适合“替身生成”、“IP视觉再创作”的多模态方式
 
Example output(示例输出)
  • 场景:山间图书馆,猫咪戴着眼镜看书
  • 输出图像自然度高、叙事性强,且用户能够层层细化
  • 每次微调都不会完全“洗掉”原始构图,AI 会努力理解你的上下文
 
专业亮点逻辑总结:
  1. 支持连续叠加的 Prompt Engine:不像传统 AI 工具一次出图,Decohere 支持 prompt 追加和演化(iterative generation)
  1. 选择变体 → 基于选中图继续拓展:建立类似“版本树”的编辑体验,每张图都可以当作下一步的起点
  1. 极强的用户控制感:不只控制初始构图,还能局部增强、风格演变、背景再设定
  1. 加载反馈轻柔克制:避免打断感,真正做到“生成不打扰,反馈不消失”
上一篇
AI in old UI 传统界面中的 AI
下一篇
Multi-modal 多模态体验