建材秒知道
登录
建材号 > 设计 > 正文

北大青鸟java培训:语音交互设计的常见形式分析

淡然的眼睛
清爽的机器猫
2023-01-25 01:59:19

北大青鸟java培训:语音交互设计的常见形式分析?

最佳答案
俭朴的耳机
虚心的大雁
2026-05-16 01:37:02

随着互联网的不断发展,交互设计的形式与种类也发生了很大的变化,下面成都IT培训http://www.kmbdqn.cn/就一起来了解一下,关于语音交互设计的一些常见设计形式。

1.对话式设计定义:简单来说就是我问你答目前我们使用的智能设备基本只能支持单轮对话,但这样并不是人们习惯的对话方式一轮以上的对话,才是符合用户心理预期的。

请大家回忆下自己使用智能音箱的一些场景体验,举个例子(天猫精灵)用户:天猫精灵,明天我有闹钟么?天猫:您明天没有闹钟呢用户:那可以帮我设定一个么?天猫:?..你会发现,智能音箱这个时候像是失忆了一般,毫无反应,显然这并不是我们想要的一个交互,从用户社交属性来说,人们沟通的方式一直都是一轮以上对话式的,并不是单轮式的,一般来说,我们要做到让用户决定对话要持续多久,很显然,你有亲身体验过的话,能做到多轮对话的比较少。

插一个题外话,近天猫精灵更新了游戏语音的玩法,算是踏进一步了吧,虽然不是很棒的体验,但起码跨进了多一步,相信未来会越来越棒的。

那对话式是如何设计出来呢?大致是怎么样的一个流程呢?2.设计工具这里说的设计工具并不是说是一个具体的工具,更多是指一个方法论示例对话定义:示例对话字面意思就是演示举例对话,它看起来像一个电影脚本,像两个人一起在对话特点:是整个设计对话过程的关键方法。

成本较低,简单易操作用法:把要做成一件事情的场景用文字写出来,然后大声读出来,你会发现书写和口语化的还是有很多区别的,甚至是有些奇怪的,这时候你会发现有很多可以改进的地方,所以你会看到一些招聘都会有这一项对应的要求,甚至是要求一些事有话剧功底,有剧本写作相关经验优先。

作用:它能够让你在投入开始研发之前,知道你的设计效果是如何。

最新回答
香蕉白开水
诚心的寒风
2026-05-16 01:37:02

此文为Medium上的一篇文章,搬运过来供自己和大家学习下。原文链接

https://medium.com/@xuuuwj/%E8%AE%BE%E8%AE%A1%E4%B8%80%E4%B8%AA%E8%AF%AD%E9%9F%B3%E4%BA%A4%E4%BA%92%E7%95%8C%E9%9D%A2-voice-user-interface-1-6364d4529a28

去年11月第一次接触VUI Design以来,已有三个多月,期间凭着网上的资料(主要是google designguideline\dueros.com\设计师手记\论文)以及自己的UX知识,我尝试设计了三个项目: 一个买书的skill 、一款智能音箱语音交互游戏、 一个关于中国电信100M宽带业务的微信咨 询机器人 ,前两个项目做到原型为止,最后一个已经在微信公众号后台实现。但这三个项目的重点都被放在conversation design上,并不能算完整意义上的VUI。

本月刚刚读完  Cathy Pearl 的《语音用户界面设计》(《Designing Voice User Interface》) 和《Voice User Interface Design》(By Michael H. Cohen, James P. Giangola, Jennifer Balogh),书中完整地讨论了VUI设计的基本原则、重要的技术模块以及用户测试等问题,帮助勾画出了一张比较完整的VUI Design全景图。

在接下来的文章中,我会尝试用一个happy path串连起由0到1设计一个语音交互界面的过程,希望能定义好每个小框架中的设计问题,然后把它们变作一种肌肉记忆。

By the way, 因为说话这件事情太本能了,所以我觉得设计VUI困难的一点在于怎样从用户思维中跳出来,让自己重新回到设计师的角色上:)

语音界面的优势主要体现在三个方面:一是速度,包括输入更方便、入口更浅、学习负担更小等;二是共时,比如允许多任务同时进行;三是探索性,更能激发用户的好奇心,提升用户体验。不过同时,也不要忘记语音交流是非常受场景、技术及用户习惯限制的一件事。

可以参考 Google-fit-quiz 里的问题,来验证VUI究竟是不是你的最佳选择。

在回答之前,我们需要先了解:1.用户进行语音交互的方式有哪些,2.VUI系统内部是如何运作的。

The Nielson Norman Group 将语音交互总结为以下屏幕优先、纯语音和语音优先三种模式:

陶醉的钻石
俊秀的大神
2026-05-16 01:37:02
VUI(voice user interface)指的是语音交互界面,可以实现人与设备之间的语音交互。VUI可以是任何东西,从听到声音就闪烁的灯光到汽车的娱乐控制台。VUI不需要具有具体的可视界面,它可以是完全听觉的或触觉的(例如震动)。

VUI种类繁多,比较直接的分类是根据设备类型划分。

手机VUI:常见的是连接蜂窝数据或者WiFi,配对设备;用户习惯使用语音交互;环境背景对语音交互有巨大的影响;通常会通过视觉、听觉和触觉反馈进行互动。

固定连接设备VUI:固定设备例如台式电脑、音响系统、电视、带屏幕的智能电器等等;连接有线网络或者WiFi,配对设备;用户习惯于在相同的位置使用这些设备并在习惯的基础上进行设置。

穿戴式VUI:穿戴式设备例如手表、健身带灯;连接蜂窝数据或者WiFi,配对设备;用户可能习惯于语音交互,通常依赖于连接的设备进行用户交互。

通过上述的分析,我们可以看到,每个语音识别平台都有一定的技术限制,所以在构建语音交互UX的时候,必须考虑到这些约束。拆解VUI整个过程,有可能会遇到以下的问题:

(1)语音交互发出之前:

设备是否始终连接到互联网?语音交互如何触发?

(2)语音发出的时候:

用户需不需要实时处理他们的语音?如何避免语音发出时环境造成的影响?

(3)语音发出完成后:

语音识别精度和速度之间如何平衡?目前的语言模型能够识别到什么样的程度?如果语音无法被识别,那么用户可以利用其它替代的交互方式吗?如果语音识别发生错误,导致后续的操作出现问题如何避免?

例子可以参考siri的语音识别和淘宝app的语音搜索。对着siri说,我想听音乐,siri会直接显示音乐播放库。感觉是按照关键词“音乐”搜寻的。但是对着淘宝app说,我想要红色裙子,淘宝的语音识别会直接识别为“我想要红色裙子”,会告诉“该商品不存在”。

现在语音交互VUI触发的常见类型有:

(1)语音触发:例如iphone配置的siri

(2)触觉触发:按下按钮或者切换空间

(3)动作触发:在传感器前完成某种手势动作

(4)设备自己触发:事先预定好的设置触发设备

作为设计师,设计VUI的时候就需要考虑到使用哪些触发器,以及如何反馈。VUI的反馈需要立即(声音信息在触发之后,需要尽快提示,否则操作容易被认为中断。)、简短、清晰(用户需要知道如何开始录制自己的声音)、一致(声音或者视觉的反馈提示需要一致,否则用户容易疑惑)。

以下是有助于VUI反馈的原则:

(1)实时:采用响应式的视觉效果,对声音的音高、音色、强度和持续时间给用户创建认知反馈。

(2)音频播放:播放以确认语音的解释

(3)实时文本:文本在用户说话的时候逐步显示

(4)输出文本:用户说完后,可以转换和修改文本

(5)非屏幕视觉提示:对用户的语音反馈可以多种模式,例如采用灯光等。

VUI是非常复杂的用户和设备的互动,以下是一些有用的学习资源:

如何设计语音交互界面:https://www.interaction-design.org/literature/article/how-to-design-voice-user-interfaces

什么是语音交互界面(亚马逊):https://developer.amazon.com/zh/alexa-skills-kit/vui

语音交互的操作(谷歌):https://developers.google.com/voice-actions/

Apple语音交互开发:https://developer.apple.com/sirikit/

语音交互指南:https://voiceui.fjordnet.com/

自信的月饼
结实的西装
2026-05-16 01:37:02
智能车行业的风口越来越大,国内外各大互联网巨头都在联合传统汽车企业一起探索智能汽车的设计研发。比如智能驾驶驾驶技术,车内人机交互技术等等,在将来,驾驶员在车内必将更自由、更舒适、更安全的,智能汽车将为驾驶员甚至是不会开车的“驾驶员”带来前所未有的体验。

本篇文章,会结合当下新技术的发展,简单聊一下人与车的交互模式,畅想新一代人车交互方式会是什么样子的。首先说道交互,其本身应包含两个层面,一方面为“交互技术”,一方面为“交互设计”。就人车交互而言,简单的概括如下:

如上图所示,虽然我是分开写的,但两者并不是相互独立的,“交互设计”需要有“交互技术”的支撑,而“交互技术”需要通过“交互设计”去应用,他们的目标都是为了更好的提高用户体验。接下来文章,我主要从交互设计层面出发,结合相关技术,说一下对未来汽车交互的看法。

上面两幅图分别为传统汽车的中控台与智能汽车的中控台,可以看到,无论是中控布局还是交互界面上,都已经发生质的变化。主要表现为,物理按钮大量减少,中控大屏取而代之。

随着技术的发展,需要显示的行车信息会越来越多,有越来越多的功能也需要去控制,所以,单靠物理按键是无法实现,所以,中控屏幕未来会是不可或缺的元素。但是,市面上并没有标准的系统规范和交互形式来约束,各大厂家都在研发自己的中控系统,很多元素以及操作逻辑都在延续移动端交互的原则,但这样其实并不科学,通过分析驾驶场景和驾驶员行为,提出如下设计观点:

中控布局上:

移动端操作系统为沉浸式操作,大量的应用直接堆积在屏幕上。而车载系统不一样,在驾驶过程中,驾驶员95%的精力都会聚焦在驾驶上行为上,能抽取仅5%左右的精力与时间来操控车载系统。因此也就决定了车载系统的信息布局都必须在极短的时间内以最好的方式呈现。给人的感觉就是 ,直接、快速、准确。

曾经在一篇文章上看到过一种名为“三秒原则”的车载系统设计规则,概括如下:

第一秒 视觉

用户在0到1秒的时间内,对车机进行扫视,在这个过程中,应用场景的重点信息与功能入口必须能被用户在这个时间以内发现。

第二秒 行为

用户在交互行为过程中从开始至结束时间上不能超过一秒。

第三秒 反馈

内容在交互行为结束后,在第三秒的时间里必须有强烈明显的反馈告知用户操作成功。

在满足以上“三秒设计”的原则下,车载系统设计才能达到可用性范畴。

交互界面上:

对于交互界面,主要是指,中控屏幕上的信息显示以及相关的内容排版,它主要体现在一下几个方面。

色彩:不宜过多使用高饱和的颜色。不然会影响驾驶员视觉的余光,难以聚焦在前方画面上。同样,也应避免使用同一色系的方案,因为这样无法在1秒的安全时间以内让用户有效果的判断识别信息。

字体:通过字号字重来区分主次关系,用户在扫一眼的过程中即可准确的看到重点信息。

图标:ICON的设计形式,可更多结合应用的内容,达到信息与功能的融合。

内容排版:在功能与入口的布局上应尽可能的根据热区分布来设计。功能布局尽量设计在离手最近的位置,缩短操作距离,将信息展示区放置在右侧。下图是特斯拉中控大屏的信息模块化分。

交互界面与中控布局,都是视觉信息的范畴,而当下 AR 技术发展迅速,它使得视觉信息脱离了屏幕,进入一个全新的纬度。而AR技术会怎么样应用在我们的驾驶舱当中呢?

在驾驶过程中,人们的视觉主要是看着汽车的前挡风玻璃的,这也使得汽车的前挡风玻璃,成了最好的信息显示区域之一,如果我们可以把相关导航,还有一些重要的信息直接利用AR技术呈现在驾驶员视线的前方,这样,在保证用户视线不离开前方道路的情况下,可以实现信息的实时反馈,从而大大提升车机交互的体验。在未来,这种名为AR HUD技术必然会被大量的应用。

语音交互设计

上文说道,在驾驶过程中,驾驶员的视线是基本不会离开前方道路的。那么,在这种视觉通道被占用的情况下,利用听觉通道接收信息便成为新的可能。所以,语音交互为安全驾驶提供了新的一种交互方向。现如今,随着语音识别、声纹识别、人工智能、机器学习等软硬件领域不同技术的发展,也使得这种方式能够落地,并被逐步优化与完善。

简单来说,语音交互就是通过语音与汽车完成一系列输入和输出,进行信息交换,最终达成用户目标的人机交互方式。它具有很多优势:

解放双手:对于汽车上需要用收取控制的的空间,都可以使用语音进行控制,如调节天窗,调节空调等等。

易学习性:声音是人与人之间基本的交流方式,不同年龄段、不同能力技术水平,应用我们的直觉,就可以掌握。

便捷性:当执行的任务比较简单时,如:导航去某地,语音输入比打字输入更快速、简单,在语音识别准确率高的情况下,用户可以完全相信语音,无需再用视觉方式来给用户安全感。

低复杂度:语音交互可以直接解决用户的最终目标,没有复杂的层级关系。

但是语音交互也存在先天性的不足,比如需要输出大量信息时,效率会比较低。人与系统交互时通常使用的是短时记忆,能记住的信息就 15 s左右。所以可能会发生这样的情况,在进行多步骤、多选项任务时,系统还没有说完选项,用户已忘记前面内容,这在驾驶场景中是十分危险的。

总结来看,语音交互在车载系统中应用时候,主要是可以应用在一些提示功能上,再就是运用在一些简单命令控制任务上。而对于复杂的任务流程,还是需要配合界面或者物理按钮进行操作。这也提醒我们在进行车载语音交互的设计时候,要尽量避免信息过载的情况。

手势交互设计

近年来,手势交互技术也逐渐成熟,相关产品也不断涌现,如任天堂 Wii 和微软 Kinect等已经彻底地改变了传统游戏的交互方式,这些设备能够识别常见的手势和身体姿势,而汽车手势交互作为一个较新的交互设计领域,也为交互设计提供了新的挑战和机会。

和语言交流一样,手势交流也是人的本能,甚至人类在学会语言和文字之前,就已经能用肢体语言与人交流。它也是一种直觉化的,易学习的交互方式。

上文提到,汽车的前挡风玻璃是最好的显示区域,在这样一个巨大的且不好触碰的显示区域下,如何去控制其显示内容呢?这时,我觉得手势交互便是最好的解决方案了。未来随着AR HUD技术在车载电子中的不断普及,手势识别技术必然将会在在这次产业升级、技术更新当中,扮演重要的角色。

在进行车载环境下的手势交互设计中,应注意,相应的汽车手势及应用应该是简单易学的,并且手势的数量需要得到严格限制,从而降低用户的分心和操作失误可能性。在未来,应尽量采用容差性较强的手势捕捉方案,用尽可能少的手势来控制不同界面的不同功能,以实现手势的大范围模糊操作,从而减少需要手眼协调的情况。

目前市面上同样没有一套科学统一的手势交互方式,一旦统一成为标准的手势语言,不仅仅是在车载场景下,在移动设备、桌面设备和物联设备等都可将应用于手势,用户将在一个设备上学会的手势自然应用到另一个平台上,会大大方便人们的生活。

硬件交互设计

我先描绘几个车内场景,这样可能大家就会容易理解什是硬件交互了。

当驾驶员闷热时,座椅通风会自动打开

当驾驶员需要休息时,座椅会自动调整为最舒服的位置

当驾驶员烦躁的时候,它可能会将空气清新剂的气味转变为平静的状态,并建议你减速

我们不禁会问,这是AI吧。没错,这一类的交互方式是需要先进的人工智能技术与汽车硬件相搭配,才能达到和实现。其实它离我们并不遥远,现在很多厂商,都在对汽车硬件赋予更多的交互功能,来提高用户体验。

这里想多说一下,倘若AI技术发展到了一定程度,我们应该如何利用这项技术去设计交互呢?通过上述的情景,我们应该可以找到答案,那就是依托于人们情感。当技术解决了硬性的功能问题,那么情感化设计,就是交互体验的另一个飞跃,它会把人车交互升华为人车协同,从此汽车会更懂驾驶员需要什么,车不单单再是一个驾驶工具,而更像是一个智能化的产物。

无人驾驶技术

读到现在,交互设计的几个方面都已经说完了,也顺带这说了大部分技术,但是好像一直没有提过自动驾驶技术,最后来说一下。

国际汽车工程师学会(SAE)现将自动驾驶技术分为0级、1级、2级、3级、4级、5级,共六个级别。具体的级别划分和描述如下图所示:

我们上文分析的所有场景,基本还是以驾驶员为主导的驾驶场景,并不是全自动化的无人驾驶。目前无人驾驶技术同样非常火热,无论是美国的谷歌,还是国内的百度,都对此非常上心,并且也都取得了巨大的进展,但是能够达到全自动化的无人驾驶,并能投入生产,进入寻常百姓家,还需要走很长的路。

当然,如果真的能够实现全自动的无人驾驶,并且人们也愿意放心接受这样出行方式,的那么汽车的驾驶舱就完全可以考虑驾驶行为之外的东西了。这样一来,对于驾驶舱空间的职能,便被大幅度拓宽,驾它甚至可以是另外任何的空间,比如电影院,试衣间,咖啡厅,等等等等。这对人车交互领域更会有颠覆性的创新。

总结

结合上面的相关描述,对于未来人车交互模式,可以预见的是,在未来,人与车之间的交流,一定是更加自然,更加友好的,新技术的发展会为人们的出行,增添更多想象空间。

欣慰的朋友
细腻的八宝粥
2026-05-16 01:37:02

当下,汽车正在从“单一的交通工具”向“智能第三空间”转变。 长城汽车 在2021年第8届科技节上提出了“1+2+N”出行空间设计架构,其中“1”指的就是“1个人机交互设计体系”,围绕“用户注意力管理”、“用户感知管理”、“全场景蓝图管理” ,构建“体验设计”、“体验评测”、“多方共创”三位一体的设计驱动体系,向体验创新转型,让汽车有温度、让科技可感知、让出行更省心。

目前除了触控、按键、旋钮、手机等人机交互方式外, 长城 汽车还应用了语音交互、人脸交互、手势交互、手表交互等多种新兴交互方式。

长城汽车智能车控手表GWM-Watch

其中,咖啡智能语音交互作为长城汽车智能座舱的标志性功能,凭借“直觉化、智能化与个性化”三大设计特点,可轻松解决用户在交互过程中的种种痛点。

直觉化——无惧干扰 声源精准定位

咖啡智能语音交互具有多音区声源定位功能,目前搭载车型大多支持双音区定位,能够准确定位用户方向,甄别驾驶员与乘坐人员的语音指令,并为其提供精准化服务。举个例子来讲,当主驾唤醒了语音交互功能时,语音系统只会听取驾驶员的命令,其他乘客聊天不会影响到语音系统的识别,即使说出“播放音乐”“打开车窗”这种直接的命令,系统也会“置之不理”,避免出现指令被误触发的尴尬。未来还会支持四音区识别,除前排外,后排乘客的需求也可以实现。

智能化——告别繁琐 “可见即可说”

语音交互拥有多 元 化识别的能力,包括多模识别、声纹识别、情绪识别等等,还具有“可见即可说”的能力,只要准确说出车机端功能的名称,就可以实现多项的语音控制,比如可以用语音进行驾驶模式的切换;可以进行“打开/关闭天窗”“打开/关闭空调”“打开/关闭车窗”等车辆控制;可以实时获取天气、时间、新闻等多种娱乐信息;还可以进行导航等功能控制,以往当我们要修改路径时往往就要进行繁复的操作,不仅耽误了时间,同时也会影响行车安全,但现在可以直接通过语音交互功能下达“从A地到B地再到C地”的指令,出行体验变得更为便捷。除此之外,咖啡智能语音交互还新增了连续对话功能,支持20秒不间断畅聊。

个性化——私人定制 打造专属声音

长城汽车语音交互不仅可以选择男/女/童声 TTS、明 星 /IP TTS,还可以进行自定义TTS。声音复刻功能就在在此技术背景下产生的,用户只需在手机APP上按照指令录制语音,TTS语音合成技术将合成专属语音库,将该语音库设置为车辆使用,这样就可以把最爱的人“克隆”上车。

例如:拥堵烦躁的早高峰路上,听到爱人温柔的声音;

加班半夜回家时传来的孩子欢快稚嫩的声音;

出差路上奔波辛苦,此时车内语音传来老妈熟悉真切的声音;

……

目前,长城汽车智能座舱V3.5平台已上线了300余项语音功能,更多功能也将陆续上线,敬请期待。

( 廊坊01)

@2019

缥缈的枕头
孤独的鲜花
2026-05-16 01:37:02
是的,随着近年来智能网联系统不断创新升级,智能车载系统也一直在持续迭代。以长安UNI-T的配置举例,它搭载的是TINNOVE梧桐车联智能网联操作系统,从语音交互上来说,TINNOVE智能网联车载系统所打造的语音交互设计能够让用户解放双手和眼睛,直接用嘴巴和耳朵与汽车进行交流。在行车环境下,支持用户随时通过多场景语音交互实现车控功能,包括导航,播放音乐、座椅加热、车窗升降等,都可以用语音控制。大大的提高了生活品质。

冷酷的世界
殷勤的早晨
2026-05-16 01:37:02

交互设计专业学什么如下:

设计概论、设计构成、设计方法、设计思维、设计表达、设计材料、图形创意、

人机工程、web交互设计、移动交互设计、AR/VR交互、用户体验度量、web前端技术、

信息可视化技术、大数据技术、人工智能、智能硬件基础、Java高级语言程序设计、

产品系统设计、产品概念设计、产品体验设计等课程。

智能交互设计专业要求学生掌握信息/智能产品设计的方法、理论和设计表达技能,掌握虚拟/增强现实、语音、手势等交互技术,既具备较强的设计思维能力,又具有大数据分析、机器学习的研究开发能力。