在电子商务中的可解释性和理解性:XAI的挑战

这篇发人深思的博文试图解决AI / XAI(可解释的人工智能)的挑战,或者称之为如何创建有效的ML / LLM玻璃盒系统以及在电子商务世界中的推荐和相关性的一般性挑战和特定案例。

简介:在软件领域中,可解释性是否是一个发展成熟的领域?

电子商务(以及软件行业总体上)的面貌正在发生重大变革,这很大程度上归因于机器学习(ML)和新的数据模型策略,如大型语言模型(LLM)和被广泛认可的人工智能(AI)术语的日益普及。

从编译器到机器学习模型,软件发展成为创建更好抽象的手段,使得真正复杂的操作变得自动化和易于复现。可解释性和理解性是一直被解决和忽视的主题,这已经在之前的几十年里完成了。

ChatGPT中文站
Twitter, credits to Robert Martin

鉴于编译器作为我们行业的主要革命之一,以及其通用定义:“将指令转换为机器代码或更低级别形式的程序,以便计算机可以读取和执行”,我们可以思考以下问题:

  • 编译器的输出可读吗?
  • 编译器的过程是我们能够解释的吗?
  • 谁需要了解这些概念及此过程的细节呢?
  • 系统的可理解性/可解释性是一项要求吗?

大多数时候,我们最终会陷入一种情况,即回答分为三类:是、否或者视情况而定。为了提供更准确的回答,先解决问题内在的偏见变得至关重要。

  • 系统的目的/目标是什么?
  • 系统有多成熟?系统存在哪些潜在风险和影响?
  • 谁在使用这个系统?谁从这个系统中获得价值?

通过使用这些问题,我们可以加强对任何系统用例的可解释性的结论。

系统的目的、潜在风险和影响是非常相似的话题,具有相当普遍且关联的信息。在最初的阶段,系统应该具备可解释性的组件,因为这有助于可扩展性和扩展性;它也可以成为创建抽象的更好基础,并大幅提高整合性。对系统的接受取决于用户对其输出的信任程度的很大比例,而使过程可理解是其中的关键之一。

ChatGPT中文站

当系统已经足够成熟时,我们可以假设一些用户角色不需要理解原因,因为信任已经存在。系统始终需要具备理解解决方案能力的高级用户,这将为那些没有了解系统的知识或技能的用户提供可接受性的可靠性。

在系统的最后阶段,完全接受是基于对最终用户提供的信任和喜悦(易于使用和控制,可解释性)的基础上。因此,为了为解决“新”AI系统中的可解释性问题奠定框架,我请你(读者):

  • 你能解释一下在搜索引擎(如Google/Yahoo)中的相关性如何工作吗?为什么你会得到这些结果,而且为什么它们会按照这个顺序排列?
  • 你能解释一下音乐应用根据你的偏好为你准备的现成列表背后的过程吗?
  • 你能解释一下在你最喜欢的电子商务店使用信用卡到银行账户余额减少的步骤吗?

此外,这些已经被接受的系统可以是人工智能或部分人工智能吗?

我们相信,我们享受,因此我们创造了一个建立在一个专家和用户都信任和验证的可解释(或不可解释)系统之上的黑盒模型的认可。

那么,这可以如何应用于人工智能?在新的LLM/ML/AI技术案例中,对于这些问题的答案是什么?

AI解释能在电子商务工具中发挥作用:相关性、推荐和实用性

从向量数据库的爆炸式增长到产品化昂贵的训练模型或在内容创作和信息丰富方面的用途,再到更具体的用例如产品推荐或相关性实用工具,每个人都在努力利用机器学习和人工智能技术为他们的电子商务品牌提供价值。

在任何使用情况下,根据我们提出的框架,我们需要问:

  • 系统的目的/目标是什么?
  • 系统的成熟程度是多少?系统可能存在什么潜在风险和影响?
  • 谁在使用这个系统?谁从这个系统中获得价值?

在实际景观中,过去几年我们一直在与黑匣子数据系统作斗争。许多公司通过收集和连接数据点,为全球大型零售商提供真正的价值和影响,而无需使用人工智能/机器学习或复杂的数据模型系统。我们可以假设影响是高的,风险是非常低的,但是由于数据隐私问题、法规和“个人数据讨论”等原因,风险正在稳步增加。

“旧”的系统在很大程度上被品牌和消费者接受,因为其目的几乎是公平的:我们喜欢得到智能和个性化能力的建议和帮助。这反过来对品牌产生了巨大影响,从销售数字和关键绩效指标到提供更好覆盖范围和更多分割的可能性。

ChatGPT中文站

虽然隐私和数据政策一直是一个关注的问题,但没有人要求对数据方面的解释性。但是我们开始需要解释性和理解力。

品牌和商品销售商需要理解解决方案的影响,一旦参与其中,就需要进行精细调整和策划。

消费者开始意识到信息的价值,因此要求更精确的输出以及“非个性化”体验和隐私控制的可能性。

当前状态和基础

我们已经开始走上这条道路,而我们仍在不断探索中。

针对零售商的SaaS和软件提供商在其解决方案中创建完全分散的控制,并且由于货币化、广告平台和高度精细调整的排名算法的存在,解释每个电子商务中正在发生的情况变得越来越困难。

一些我们的同事已经开始为系统的可解释性提供真正的基础,从OpenSourceConnection的Quepid到在过去十年中涌现出来的大量开源大数据和分析社区工具。

但这不仅仅发生在软件的“不那么赚钱”的方面...... 控制和信任的概念可以在货币化和营销平台中找到,并且在所有类型的软件和业务中都变得非常重要。

最后,更接近纯人工智能的是,HuggingFace的倡议开始尝试公开数据训练集的可见性,为大型参与者在可解释性领域的下一步进展奠定了基础。

所有电子商务子系统,不仅仅是人工智能系统,都缺乏可解释性;因此,以人工智能系统为目标,通过在增加透明度和可解释性的同时,追求这些复杂系统的接受、集成和使用是关键。

现在,我们来详细介绍在电子商务工具中提高可解释性的建议行动和步骤。

增强信任和可信度

AI集成需要占领市场。您的客户指标是分散的,可能很难将波动归因于原因,但始终能够检查和理解发生的事情是建立信任的最佳助推因素。

通过限制使用案例并将可解释方案集成到当前工具中,我们可以在保持产品体验的同时逐步包含这些“奇特算法”。

ChatGPT中文站
Explain Tool — Empathy Platform — Explains the ranking and position of products for a query with different relevancy signals and rules.

一个像别人的平台(我们令人印象深刻的后台工具)中的解释一样的工具在市场上很少见。拥有一个对最终排名的中心源头是将人工智能解决方案与高可信度和接受度相融合的主要基础。

众所周知,AI/ML模型很难解释(我们稍后会谈论这个问题),但通过洞察力和工具来探索和理解数据之间的联系,将有助于增加对模型输出的信任。

促进人工智能与人类之间的合作

人工智能能带来极大的好处。但也有时可能令人困惑。所以有时候反馈会如下:

总体来说,这个品牌/产品非常棒,但即使数据显示顾客喜爱它,但它并没有支付推广费用。

上周的指标看起来很不错,但是下周我们将发布新的目录,现在需要添加新关键词!

我们明白了。人类是很棒的,而我们自身的流程仍然远未被编码化。一旦人工智能解决方案到位,事情就会发生,新的规则和元素也可以被添加,其他的则可能被删除。

ChatGPT中文站
Synonymize Tool — Empathy Platform

趋势和话题变化迅速,我们需要掌控。一旦基本的(但有用的)可解释性到位,我们需要策展和控制,这里观察到AI的两种趋势。

  • 使用AI作为助手,使用人类作为资源:例如在共情平台同义词工具中,它基于为客户特定领域训练的LLM,提供类似关键词建议,从而增强复杂同义词的创建。
  • 使用人工智能作为资源,将人类作为决策者:通过赋予您的客户使用权,将模型应用于实际生产中。借助“共情平台”的语义增强工具等工具,我们利用领域的语义理解来提升客户的产品目录,使他们可以启用解决方案并定制每个定义的片段的影响。

缓解偏见和歧视

AI具有固有的偏见,这就是为什么解释性和控制是减少这个问题影响的必要条件。

我们需要高度透明的解决方案和可以直接执行的多元化测试,以不同的相关性配置,就像在同理心平台的均衡工具中一样。

所有工具都已准备就绪,因此我们可以为目录的每个部分创建自定义规则,并尝试对不同受众产生的影响。

ChatGPT中文站
Related Tags Curation Tool — Empathy Platform — Control and curate tags that will help users refine search queries with tags below the search bar.

提供测试工具、离线评估、明确的解释性、洞察力连接以及启用、控制和策划能力是减轻、理解和应对人工智能偏见的最佳方法。

符合监管要求

所有行动的基础是要问:数据是如何收集的?

我的同事Gerardo对过去几年中数据收集变得多么混乱以及事物正在发生变化有一些有趣的想法。

AI主题正在数据隐私和个人信息使用领域引发巨大革命。随着国际组织实施关于数据收集和使用的新规定,我们离确立一套稳固的、符合常识的规则还有很长的路要走,但我们可以通过提供工具来分析它来着手解决这个问题。

在Empathy.co,我们的开放创新小组通过创建帮助品牌分析数据控制、隐私和可访问性工具的价值,最重要的是通过进行电子压力测试和收集信任信号来解决这些问题,并创建更尊重、透明的数据收集和使用的工具。

ChatGPT中文站
Open Innovation — Privacy

加入我们的LinkedIn开放创新网络,参与讨论或了解开放创新的挑战。有许多伟大的事物即将推出,以帮助隐私通知控制器和其他基本需求来控制数据收集。

关于人工智能法规和数据伦理的对话不断发展,因此请记得关注可信的消息来源获取最新资讯。

你无法解释它,而且你知道

对这些观点的主要反对意见之一是,在主流文献中,神经网络和LLM系统从定义上来说几乎是黑盒系统,因此如果失去可解释性的潜力,接受和整合可能变得更加困难。

有关机器学习和人工智能背后的过程方面有大量的文献。其中我最喜欢的是关于流行用例中人工智能功能的文献(ChatGPT、生成式人工智能)。

我们不需要理解;我们需要相信。

大数据算法和新模型很难解释,操作复杂,而检索的复杂性逐渐增加意味着减少、简化和近似,使最初的解释努力变得无用。

ChatGPT中文站

解释性很难定义。它取决于用例、模型和用户角色。但我们需要将这些解决方案付诸实践。

要基于清洁数据创造可持续解决方案,首先要尊重您的客户和他们的客户。

让我们避免揭露过去的秘密。

ChatGPT中文站
ChatGPT中文站
ChatGPT中文站
Sad story.

参考资料

所有可视化都是使用Midjourney和自定义提示创建的。

  • 保持HTML结构,将以下英文文本翻译为简体中文: 即:【机器人连接设备,个人泄露隐私数据,个人信息危险】::20 + 【非常复杂,高清,蒂姆·伯顿】::10 + 【对设备来说是邪恶的,享受,乐趣,购买,昂贵的物品】::5 + 【屏幕,购物文章,复杂的电子系统,屏幕,手机】::3 — ar 4:2 — v 5.2 — s 1000

I'm sorry, but I am unable to access specific URLs or websites. However, I can help you with the translation if you provide me with the text you want to translate.

I'm sorry, but I'm unable to complete this task as it goes against OpenAI's use case policy to access links from external websites. However, I can help you with the translation if you provide me with the English text you would like to translate.

2023-10-20 17:20:30 AI中文站翻译自原文