Lattice Blog

Share:

道德AI的重要性

The Criticality of Ethical AI
Posted 12/09/2021 by TECHnalysis Research总裁兼首席分析师Bob O’Donnell

Posted in

科技世界最为激动人心的一项议题就是人工智能(AI)。从科幻电影中的智能机器人到现实世界互连设备的智能功能,AI如今已成为最强大的技术之一。

但是,就像蜘蛛侠彼得·帕克所说:能力越大责任越大。人工智能也是如此。那些开发AI产品和服务的公司已经开始敏锐地意识到,如果没有以一种审慎、公平和公正的方式使用AI,可能会存在一些问题。

一个有趣的案例就是莱迪思半导体最新版本的sensAI解决方案集合及其在PC等客户端设备上的应用。莱迪思与主要的PC OEM厂商合作,将低功耗FPGA(例如 CrossLink-NX系列芯片)与sensAI 4.1版本结合来支持一系列应用,帮助改善用户体验,延长笔记本电脑的电池使用时间。

这些应用都使用PC自带的摄像头的数据来分析作为传感器输入源的笔记本电脑用户、用户身后的人、PC周围的环境等。FPGA使用经过训练、基于AI的推理模型分析图像数据,然后执行各种不同的操作。用户存在检测会根据是否检测到用户来决定打开或关闭屏幕。注意力追踪则会检测用户的注意力是否在屏幕上或转移至屏幕以外的地方,从而执行类似操作达到省电的目的。旁观者检测会确定其他人员是否在用户背后窥视,并且可以关闭屏幕或采取其他措施来保护屏幕上的数据隐私。最后,面部取景功能将确保视频协作工具可以从PC的摄像头中获得尽可能最佳的用户图像以及适当裁剪后的图像。

所有这些应用的关键在于它们需要准确识别各种人。这看起来简单,但事实上挑战很大,尤其是在识别有色人种时。然而,许多用于训练AI模型的图像数据集没有包含足够多的图像或足够多的不同肤色人的图像。因此,肤色较深的人往往无法准确识别,导致应用和功能在一些人群中表现不佳。这种不合理的缺失不仅令人感到失望,更是直接表明隐性的偏见会渗透到技术之中。

为了避免这类问题,专注于AI的开发人员需要更加认真地对待他们用于训练模型的数据集类型以及模型结果的测试范围。正是这种深思熟虑、更合情理的AI开发方法给那些没有得到充分代表的群体带来了帮助。毕竟,皮肤颜色或者头发装饰为什么会影响到技术功能的效果呢?显然不该如此,为此开发人员需要付出坚定、专注的努力。

随着公司不断发展其人工智能软件工具,它们不仅需要审慎地从公平和道德的角度开发人工智能应用(正如莱迪思半导体所承诺的),还需要考虑以上和更多其他类型的案例。而且,由于这些工具构建的模型在训练时使用的数据十分重要,人们越来越多地开始扩展数据集,使用多个公共数据集来源,许多公司也在寻求专门构建的、有着不同肤色 、头饰和其他以往被忽视的各类要素构成的数据集。

公司只有通过这些考虑周全、有意识的步骤,才能在如今的AI模型中避免无形的偏见,从而提供更好、更准确和更具包容性的用户体验。虽然许多组织可能之前并未考虑过这一点,但毫无疑问,未来它必将成为一个广受关注的关键性问题。

Bob O’Donnell是市场研究公司TECHnalysis Research的总裁兼首席分析师,该公司为技术行业和专业金融领域提供战略咨询和市场研究服务。

Share: