互联网资讯 / 人工智能 · 2023年11月9日 0

人工智能偏见及企业应对策略

随着人工智能在企业和社会中日益普及,企业必须关注机器模型中潜在的人类偏见。企业可以借助人类智慧,获取训练算法所需的各种数据和输入。

有多种方法可以减少数据集中的偏差。

在训练人工智能(AI)算法时,数据输入至关重要。在商业环境中尤为如此,人工智能通常用于与客户互动、管理自动化系统或模拟人工决策。因此,成果与目标的一致性是非常重要的。然而,企业必须能够识别并解决可能影响人工智能对指令或请求响应方式的偏见。

任何新产品的设计和开发阶段都是关键,因为它使企业能够进行测试,发现并消除缺陷。如果设计缺陷或产品故障被忽视,企业能够迅速采取措施,比如召回有问题的设备,发布更新和补丁来修复软件问题。对于常规软件版本,这是可行的,但处理人工智能算法则较为复杂。

人工智能算法是高度复杂的系统,旨在基于机器学习(ML)执行特定任务。试图消除人工智能投入运行后产生的偏差可能既昂贵又耗时;对于“学习”的技术而言,这种做法常常违背直觉。因此,在设计和开发阶段采用适当流程来检测并消除偏差会更为有效。

偏见对企业的不利影响显著

人工智能的基本功能和目的体现在其基础算法中。如果人工智能发展出固有的偏见,将会对其算法产生负面影响。这可能严重损害人工智能所期望提供的精确性和效率,从而限制其满足商业需求的能力,进而对企业造成损失。

尽管开发人员有良好的意图,偏见仍然会渗透到人工智能算法中。学习过程中的学生会受到其老师的影响,教育机构的课程设置影响着其教育范围。毫不奇怪,课程越多样化,学生越开放。同样,较大且多样化的数据集将有助于产生更精准、高效的人工智能算法,从而能够做出更明智的决策。

培训数据与测试结果

每个成功的人工智能算法都依赖于训练数据。然而,获取满足业务需求的数据可能会给物流和间接费用带来重大挑战,特别是当这些要求涉及满足大众市场时。

内部开发团队、软件工程师和质量保证专家往往来自相似的年龄、性别和背景。偏见常常发生在数据收集和标记过程中。因此,在构建人工智能算法时,最好避免依赖单一人员或小组提供训练算法所需的数据。为了有效训练算法,必须使用多种类型的数据和输入。

利用与最终服务客户更接近的人员和体验的模型来训练人工智能算法,可以显著提高效率。企业可以利用这种模型训练算法,以适应现实情况,识别偏差发生的地点,降低其潜在影响。

社区构建的算法

培训数据的成功获取与实施取决于数据的数量、质量和多样性。企业必须利用多元化的参与者来获取和处理这些数据。企业需要能够从提供特定人口统计信息的社区中选择,包括性别、种族、母语、位置、技能、地理位置等相关过滤条件。

实际上,开发有效算法需要大量数据,而大多数企业并没有能力大规模获取这些数据。他们需要专门资源的支持,才能交付新的软件和服务。最近一个针对媒体和广播服务的智能语音助手项目需要超过10万种不同的语音,这些语音由972名参与者提供,他们被远程组织以训练算法。尽管实验室可以在一定程度上模拟语音,但人工智能仍然需要接触多种真实声音和口音。

言语训练只是培训的一部分。众包解决方案还可以帮助企业训练人工智能算法以读取手写文档。最近的另一个项目需要数千个手写样本。数量再次成为关键因素,因为算法需要尽可能多样化的样本。为满足各种需求,组织了超过1,000名参与者,提供手写文档。

公正的结果

消除可能降低人工智能最终结果准确性的意外偏差至关重要。尽管这一过程永远无法做到完美,但人工智能会不断学习,最佳的机器模型是基于大量多样化数据集的模型。最佳策略是在提供数量、质量和多样性的数据池中获取培训数据。如果训练数据缺乏多样性,算法将无法识别广泛的可能性,从而使其失效。远程社区使企业能够访问这些数据,同时补充内部开发和测试能力。众包测试可用于训练人工智能算法,以研究和识别语音、文本、图像和生物识别,从而为企业提供强大的输出,满足不同客户群的需求。

[[[IMG_1]]]
[[[IMG_2]]]
[[[IMG_3]]]
[[[IMG_4]]]
[[[IMG_5]]]