type
status
date
slug
summary
tags
category
icon
password
AI就像一个助手而不是老板。它不会完全替代你工作,而是在你需要时提供建议和帮助。比如,它会建议文字修改、提供配色方案,或在你有灵感时及时补充细节。它就像你身边那个懂你创作节奏的好搭档,在关键时刻给出点睛之笔。
Highlight text content 突出显示文本内容
写字时,是不是常给自己标注「这里要改」,或想让邮件更礼貌?
"Highlight + AI" 就是把这些直觉动作搬到屏幕上:选中文字,AI 就会建议:「要不要改得更简洁?」
或「这段逻辑可以调整」。它就像一个贴心的编辑,润色但不抢稿,而非那个擅自重写的"AI 霸总"。

Lex.page 把 AI 写作助手变成一个“随叫随到”的团队成员。通过高亮文本+@lex 直接提问,用户可以在不打断写作流程的情况下,局部请求润色、风格转化、语言修改等操作。这是 AI 写作中最像“搭档”的协作方式。
AI-UX 模式(AI-UX Patterns)
- Human in the loop:强调用户持续控制流程,AI 只在用户指定区域进行协助
- User curation:AI 给出建议,最终由用户决定是否采纳
用户意图(User Intention)
- 在长文写作中快速优化部分句子或段落
- 指定语气风格,如“让这段更口语一点”
- 在保持语义不变的前提下,改写表达方式
- 多轮交互中精细调整内容,逐步打磨
专业逻辑拆解(分析亮点)
- @AI 调用机制极具文本上下文感
用户只需输入
@lex
,即可唤起 AI 对当前高亮内容进行处理,实现“在文中原地交互”,无需跳转界面、复制粘贴 prompt。- 高亮 = 输入,问题 = 指令,返回 = 直接替换草稿
采用“自然动作+自然语言”方式触发 AI,降低使用门槛,让每位用户都像在和编辑对话。
- 语气风格可自定义,用最通俗的语句下达指令
例如“Can you make this more casual?” 就能触发 AI 生成一个口语版的句子,完全不用 prompt 设计经验。
- AI 返回内容可复制、可改写,也可以继续对话
用户可以基于返回结果继续提问,形成一轮更自然的上下文对话链。
- 加载状态简洁直观,避免中断写作节奏
AI 响应过程以“writing…” 形式轻量展示,非模态交互,保障写作流畅性

ChatGPT 的这组设计展示了文本高亮在对话系统中作为“微入口”的新范式——用户选中一段内容,就能在其基础上直接提出修改建议或生成命令,极大减少上下文重述成本,带来“点哪问哪”的自然交互流。
AI-UX 模式(AI-UX Patterns)
- Human in the loop:用户明确告知 AI 要操作的范围,避免全局响应
- User curation:AI 给出多种建议,用户决定是否接受或迭代
用户意图(User Intention)
- 快速生成基于某一句话的变体(如更有趣、更搞笑、更正式)
- 只优化局部,而不打断整段内容的结构
- 借助 AI 激发更多创意点子(如游戏题库、文章标题等)
- 在 AI 提供的结果基础上进行二次提问或“细调”
专业逻辑拆解(分析亮点)
- 高亮即上下文,输入即命令,无需另起对话线程
用户选中“Never have I ever traveled to another country.”,直接输入“suggest more quirky and funny ones”,AI 就知道用户想要该句的搞笑版扩写。
- 无须重新定义上下文,显著降低 cognitive load
过去我们与 AI 互动要“带上下文重述”,这组交互把高亮当作 context anchor,大幅简化表达成本。
- 生成动作与当前内容同屏呈现,减少跳出感
生成的内容不是跳转到新对话框,而是直接“接着这句往下写”,保持沉浸感。
- 加载状态轻量非打断式,文字边生成边可见
用户能看到 AI 实时“打字”,感知明确、反馈即时,增强对系统的信任感。
- 用户反馈机制轻量融入右上角,支持随时评分
帮助系统收集微调数据,同时不干扰写作节奏。
Highlighting visual content 突出显示视觉内容
遇到过这种情况吗:看到图片中有些细节想改,但不知如何描述?最简单的方式就是直接圈出来!「高亮视觉内容」功能让AI理解你的"指哪改哪"动作。

Vercel v0 展示了一个令人印象深刻的「Highlighting Visual Content」模式:用户在界面中选中任意视觉元素(如按钮、标题、文字),通过提示进行修改(如放大字号、修改文案、增强对比度),AI 自动执行并返回编辑结果。它不仅实现了局部微调的智能化,还保持了人类设计师的主导权。
AI-UX 模式(AI-UX Patterns)
- Highlighting visual content:通过圈选、点击组件激活局部编辑指令
- Human in the loop:人选定目标、发出修改请求,AI 做回应
- User curation:AI 给出结果,是否采用仍由用户决定
用户意图(User Intention)
- 微调界面视觉效果(如文字大小、颜色、按钮 CTA)
- 快速进行 A/B 实验(不同措辞、视觉风格、内容变体)
- 降低设计协作成本(非设计师也能发起明确请求)
- 保持人工主控、但提升执行效率
入口触点(Entry Touch Points)
- 直接点击任意可编辑的视觉元素(标题、段落、按钮)进入编辑模式
- 悬浮工具栏出现:支持“Pick and Edit”,也可以输入指令
- 示例指令如:“Make the heading larger and darker”
AI 交互界面(Main AI-UX Interaction)
- 用户选择某元素后,会自动出现提示区域(如浮层)
- 输入目标修改内容(如:放大文字 / 替换 CTA)
- 显示 AI 编辑后的建议文本或样式
- 可直接点击 Update 应用,也可忽略、再改
加载状态(Loading State)
- 动画形式的“转圈”图标(进度反馈)
- 状态标签:例如“Writing...”表示 AI 正在生成新内容
- 页面右上角可查看版本历史(v1、v2等)支持回退操作
输出示例(Example Output)
- 原始标题文字 → 被增强为“Experience with AI”
- 增加副标题、改进语气,使内容更清晰、富吸引力
- CTA 区域改写为:“Learn More (10,000+ users)”,加入社证信息
- 所有输出都实时渲染在页面中,方便对比原始版本
快捷说明(Quick Explanation)
- 任何组件都可以高亮 + 提示词组合进行编辑
- 用户通过自然语言输入修改要求
- 可执行操作包括:改文字、调字号、调整颜色、添加说明等
版本记录(History)
- 编辑历史以“v1/v2”形式记录
- 支持查看改动前后差异
- 保证用户对每次变更可见、可控、可回退

Photoshop 的「Generative Fill」展现了极具代表性的 Highlighting Visual Content 模式。用户只需圈选画面中的任意区域,通过自然语言指令描述生成内容(如 cloud、mountain),AI 就能生成多个高质量图像选项供挑选,并保留操作历史。
这是一种兼顾「人工选择 + AI 生成」的协作模型,在传统创作软件中引入 AI 直觉操作,让复杂图像编辑流程变得即时、轻量、高效。
AI-UX 模式(AI-UX Patterns)
- Highlighting visual content:通过圈选画面区域作为“输入”
- Human in the loop:AI 提供多个图像版本,用户从中挑选
- User curation:最终选择仍由人类主导
用户意图(User Intention)
- 替换画面中某一块内容(例如:天空、地面、建筑)
- 在不改变整体构图前提下“添画”或“重画”某部分
- 借助 AI 提供多个创意参考版本,加快选图与创作效率
- 降低绘图、抠图、合成等操作门槛
入口触点(Entry Touch Points)
- 手动圈选画布上的某一块区域(使用套索工具、矩形工具等)
- 弹出「Generative Fill」指令输入栏
- 用户可输入生成提示词(Prompt),也可留空(自由探索)
AI 交互界面(Main AI-UX Interaction)
- 填写提示词(如 “Cloud”)后,点击 Generate
- 系统生成 3 个或更多备选图像(Variations)
- 用户可浏览左右图像、点击点赞或踩、也可一键替换
- 生成结果默认叠加在原图选中区域中
加载状态(Loading State)
- 显示进度条 + “Generating” 字样
- 提供取消按钮(Cancel)以终止生成
- 保证生成过程可感知、不中断
输出示例(Example Output)
- 原图是蓝天画面,用户选中某块空白区域,输入 “Cloud”
- AI 自动生成逼真的白云图像,完美嵌入画面
- 可在多个版本之间切换,选择最合适的合成效果
- AI 内容与原图融合度极高,保留原始结构、光影关系
操作记录(Action History)
- 用户每次生成记录都会保留,可随时回退到上一步
- AI 会记录使用的提示词 + 提供的图像变体
- 可再次修改 prompt 或重选区域进行新一轮生成
Work with me 与我一起工作
用 AI 就像找个写作搭子。它不是一次性完成所有工作,而是这样:
你:这段逻辑有点乱
AI:我帮你理顺,要加过渡句吗?
你:好,改得口语点
AI:完成了,标题也优化了
它不抢活也不啰嗦,只在需要时简单提醒:
"Need help?"
"Want a summary?"
"Got a better version."
像个好搭档,既不打扰你,又能助你前进。

Granola 的亮点在于不做“统一总结”,而是围绕每位用户自己的 quick notes,进行个性化增强。这正是 “Work with me” 模式的核心:你写你要的,我来补全你要的,而不是强加一个统一模板。
入口触点(Entry Touch Points)
- 在会议笔记界面直接输入
- 支持快捷格式标记(如:#、@、项目标签等)
- 可选择自动模式下的增强功能:AI 会读取上下文+用户输入,辅助生成内容
- 不中断输入流、无需跳转界面,AI 是“隐身协作者”
预设模版(Pre-made Templates)
- 提供常见场景下的模板:客户沟通、面试笔记、招聘、1 对 1
- 用户也可以自定义模版(my templates)
- 所有模版都是 可手动选择启用的,AI 不会自作主张插入
- 设计思路是“快速落笔”,而不是“替你决定结构”
加载状态(Loading State)
- 显示“Enhancing notes...” 等动态提示
- 输出不是一次性生成,而是围绕当前已有内容逐步展开
- 避免误会 AI 无响应,且高亮生成内容的过程(例如段落逐行更新)
AI 交互界面(Main AI-UX Interaction)
- 用户可以先打草稿,AI 基于草稿增强内容
- 增强逻辑围绕用户已有输入展开,不是覆盖、而是扩写
- 支持上下文联动(如:用户写“请补充总结”,AI 会回顾前文并补写)
- 所有增强建议都可以一键接纳或略过,用户有最终掌控权
输出示例(Example Output)
- 输出内容保留原始结构,增强部分有层级样式、标注、项目符号
- 例如:“Feedback and Value” 项下自动归类出多个要点
- 所有内容都可以立即编辑、复制、整理成报告
- 用户添加的笔记成为生成核心,体现 “人机共写” 特性

Dovetail 的“Work with me” 模式非常典型:AI 不抢活、不全自动,而是通过“建议式高亮”,协助研究者更高效提取洞察。这种保留人工判断权的协作方式,能让用户在 AI 帮助下保持深度掌控。
入口触点(Entry Touch Points)
- 用户在访谈或用户反馈中打开“Highlights”界面,点击 Suggest,触发 AI 建议式高亮
- AI 自动读取整段话,识别可能有价值的语句、片段
- 用户可以手动点击“接受”或“忽略”建议,增强控制感
- 属于轻量级触发,保持上下文流畅,不影响阅读节奏
加载状态(Loading State)
- 高亮建议生成前,显示提示:Suggesting…
- 可视化标记“建议数”或“已处理数”,让用户知道当前系统处理进度
- 多段落建议批量处理,一起返回,适合长文本提取
AI 交互界面(Main AI-UX Interaction)
- AI 会用颜色标注出建议的句子,并显示选项框(Accept / Dismiss)
- 建议不直接变为正式高亮,始终需要人工确认才能生效
- 用户也可在任意文本上自行手动高亮,AI 不限制输入
- 同一段文本可以多轮高亮,AI 不会覆盖已有标注,只作补充
自定义与人类保留控制权(Customisation)
- 可在建议片段上编辑、添加备注,或修改标签归类
- 可与原始访谈视频 / 音频同步定位,确保理解不偏离上下文
- 所有高亮都与项目结构、分析视图联动(如后续汇总、主题归纳)
- 系统不会“自我判断价值”,而是把建议权交还用户处理
输出示例(Example Output)
- 所有已确认的高亮,自动汇入 Highlights 汇总列表
- 用户可统一查看、筛选、合并标签,形成清晰的“用户声音证据池”
- 后续可以进行可视化分析、汇报展示或报告提炼
- 全流程强调透明感,每一步用户都看得见、改得动

Captions 不是全自动替你剪片,而是通过预设风格、分段处理、智能高亮,让你轻松掌握剪辑节奏,既节省时间又保留创作自由。
入口触点(Entry Touch Points)
- 用户从主界面进入“AI Edit”,选择 AI Shorts、AI Ads、AI Creators 等具体剪辑任务
- 无需输入文字 prompt,仅通过视频导入和任务类型确定上下文
- 可选择“仅一人说话”、“竖屏视频”、“未经剪辑原片”等前置要求,确保 AI 工作稳定性
预设模版(Pre-made Templates)
- 系统提供三种剪辑风格模板:Impact(动感)、Cinematic(电影感)、Paper(创意风)
- 用户选择后,AI 自动执行匹配剪辑逻辑、转场节奏、字体样式等
- 模板降低了 AI 使用门槛,也形成差异化视觉结果
AI 交互界面(Main AI-UX Interaction)
- 中心视频编辑界面显示当前剪辑片段与使用风格
- 下方展示多项控制项(Captions / Zoom / Sound / Tempo 等)
- 用户可保留 AI 自动生成结果,也可以点击任一功能区进行微调或替换
- AI 动作明确标记,增强透明感
加载状态(Loading State)
- 视频导入后,会出现 AI 正在处理提示:“AI Edit – Watch while edits are applied automatically”
- 实时显示剪辑时间轴上哪些区域被处理,以及对应处理类型(变焦、滤镜、字幕等)
- 帧级别分块展现,防止用户误以为“黑箱处理”,提升信任
操作记录回退(Action History)
- 每当 AI 修改视频中的元素(如变焦、添加字幕、切换节奏),对应功能区会被高亮
- 用户可点击进入查看具体变化,并进行回退或替换
- 是一种“结构化记录 AI 贡献”的方式,便于用户精修
输出示例(Example Output)
- AI 自动为视频添加字幕,并与人物说话同步对齐
- 底部的 Captions 区块被高亮,提示这一步由 AI 生成
- 输出视频风格明显、节奏统一,但用户仍可修改字幕文案或段落排序
- 结果呈现是 AI 与人协作而非全自动批处理的体现
Real-time dreaming 边想边做
这个模式就像是:“我一边想,AI 一边跟着我动。”不是你写一堆 prompt 然后点击 “生成”,
也不是你改了东西等半天出结果,而是:你拖一下,AI 马上给反馈;你换个词,马上出画面。

Meta AI 通过极致实时的生成反馈,让用户获得近乎“梦境式”的内容体验:边打字边看图变,一秒进入创作状态,无需任何点击与等待。
入口触点(Entry Touch Points)
- 用户通过输入框直接发起想象式 prompt,例如:
imagine a panda eating an ice cream wearing sunglasses on beach
- 不需要点击复杂操作,一句话触发整个流程
Main AI-UX interaction(主交互界面)
- 界面左侧保持对话上下文(conversation thread),右侧即时渲染生成的图像
- 用户只需调整 prompt 文案,AI 会立即响应新输入,图像动态变化
- 全程无停顿切换,无中断,维持沉浸式体验
Loading state(加载状态)
- 明确强调:「没有加载状态,这是实时的!」
- 图像生成过程中,系统通过模糊过渡或 placeholder 图片平滑显示生成结果,完全隐藏系统处理细节
Customisation after result(生成后的定制操作)
- 生成图像后,用户可直接点击图片进行动画处理或更改 prompt 再生图
- 系统支持:
- Edit 按钮 → 进入更精准微调模式
- Animate 按钮 → 将静图转换为视频
- 可复用、重塑、循环生成,保持用户在创作流程内
Example output(示例结果)
- 高保真图像直接嵌入主对话中,用户可以复制、保存、继续对话、生成动画
- 图像生成带有随机性,每次细调 prompt 都可探索不同创意空间
专业逻辑亮点总结:
- 文字驱动 → 实时视觉生成:不再是“写完 prompt 点一下生成”,而是边打字边看图自动长出来
- 无缝反馈,连贯操作:隐藏掉所有传统生成 AI 的等待与确认动作
- 保持主线创作流:每一次微调都不会中断用户注意力,生成结果即反馈结果
- 支持二次创作循环:Edit/Animate 功能,延展出更多创作可能,而不是“一次性生成”

Krea AI 是真正意义上「所见即所得」的视觉创作工具。在它的系统中,AI 已不再是一个“生成”工具,而是一个实时反应的共创搭档——你动一下,图就变一下,灵感完全不需要等。
入口触点(Entry Touch Points)
- 用户通过输入一个非常简单的 prompt,如:
pink frog
(粉红青蛙)
- 无需点击按钮、提交、等待,只需输入文字就立即触发生成
- 入口体验极简,prompt 框与画面几乎无缝整合在界面中
Main AI-UX interaction(主交互界面)
- 显示左侧为几何图形(如粉色圆形),右侧为生成图像
- 画面分区明确,生成内容实时更新,随着输入、图形移动、prompt 调整同步变化
- 整个过程无“生成按钮”,动作即请求、拖动即变化
Loading state(加载状态)
- 明确提示:“没有加载状态,这是实时的!”
- AI 输出过程隐藏在交互动作之后,不中断、不干扰
- 用户看到的只有视觉结果的变化,而不是“AI 正在思考”
Customisation after result(生成结果的定制)
- 结果不是“完成图”,而是可实时调节的动态画布
- 用户可以拖动左侧的粉色圆形,实时改变图像中青蛙的形态、风格、细节
- 也可以直接修改 prompt,立即出现新版本
- 更像是一个视觉调色板,而不是传统“生成→看结果”的工具
Multi-modal input(多模态输入)
- 支持结构提示 + 文本 prompt 的组合输入,例如:
- 结构:上传鱼的轮廓图
- prompt:
fish made out of porcelain
(瓷器做的鱼)
- AI 实时根据结构参考 + 描述生成高一致性的图像结果
- 极大程度释放用户的表达自由度和掌控力
Example output(示例结果)
- 输出图像质量高、细节丰富
- 无需反复迭代确认 prompt,也不需要手动点“生成”
- 用户每次的视觉动作和语言指令都会同步转化为图像反馈
- 整体是一个持续演化的画面,而非静态的最终图
专业亮点逻辑总结:
- 视觉调参新范式:Krea 并非“提示词生成图”,而是“图像 = prompt + 动态操作”的实时共创模型
- 空间+语言混合驱动:支持结构草图 + 文本描述共同驱动图像变形,这是一个典型的多模态交互设计突破口
- 打破等待 → 实时响应:不仅没有 loading bar,连“结果”这个概念都被重构为一个可操控的状态流
- 用户感知是“控制”,而不是“请求”:让用户感到“我在创作”,而非“我在等 AI 给我一个答案”

Decohere 不是让你一键生成图像,而是让你可以逐步完善、实时预览、连续微调。它构建了一种“可对话”的 AI 图像创作体验 —— 就像你和 AI 一起搭积木,一块一块加上去,图就越来越像你想要的样子。
入口触点(Entry Touch Points)
- 用户在输入框中输入完整 prompt,如:
a cat reading a book in a library setting cozy environment
- 系统自动开始生成,无需点击“生成”按钮
- 支持追加或编辑 prompt,实现连续性构图
Loading state(加载状态)
- 有轻微的 loading 动画(顶部有进度条提示),但极短暂
- 页面保留 prompt 编辑框,用户知道 AI 正在响应指令
- 明确强调:“Slight loading, good user feedback!”(轻量加载,用户反馈好)
Main AI-UX interaction(主交互界面)
- 生成区域为主图展示区,prompt 编辑区叠加在图下
- 用户可以在已有图片基础上,继续追加描述
例如:
generate an image of cat where they are reading books around library and it was surrounded by mountain region and wear cat a glass and a cap
- 整个体验是**“持续构图 + 局部增强”**,不是一次性生成即完结
Customisation(生成后的调整)
- 用户可以左右滑动不同变体,选择更喜欢的版本
- 选定版本后,可直接在其基础上输入新的 prompt 进行微调
- 整体体验就像:
“先画轮廓 → 选择构图风格 → 再涂细节 → 再加配饰”
- 真正做到“逐帧生长”,用户可对每一个阶段保持控制权
Multi-modal input(多模态输入)
- 支持结构参考图 + 文字 prompt 的结合使用:
例如上传人物照片 → prompt:
aztec warrior
- 最终生成图像会保留人物五官结构,但风格、服装、背景全部替换为 prompt 所描述的内容
- 是一种非常适合“替身生成”、“IP视觉再创作”的多模态方式
Example output(示例输出)
- 场景:山间图书馆,猫咪戴着眼镜看书
- 输出图像自然度高、叙事性强,且用户能够层层细化
- 每次微调都不会完全“洗掉”原始构图,AI 会努力理解你的上下文
专业亮点逻辑总结:
- 支持连续叠加的 Prompt Engine:不像传统 AI 工具一次出图,Decohere 支持 prompt 追加和演化(iterative generation)
- 选择变体 → 基于选中图继续拓展:建立类似“版本树”的编辑体验,每张图都可以当作下一步的起点
- 极强的用户控制感:不只控制初始构图,还能局部增强、风格演变、背景再设定
- 加载反馈轻柔克制:避免打断感,真正做到“生成不打扰,反馈不消失”
- Author:GrowGoodGalaxy
- URL:https://growgoodgalaxy.vercel.app/article/25d2174f-6f34-8095-9d55-e5845d42d29b
- Copyright:All articles in this blog, except for special statements, adopt BY-NC-SA agreement. Please indicate the source!