‘
AI News采访了Ikigai Labs的总裁Kamal Ahluwalia,讨论了关于生成AI的一切,包括如何采用和利用这项技术的顶级建议,以及将伦理融入AI设计的重要性。
您能告诉我们一些关于Ikigai Labs的情况以及它如何帮助公司的信息吗?
Ikigai正在帮助组织将稀疏、孤立的企业数据转化为具有预测性和可操作性的见解,采用了专门为结构化表格数据设计的生成AI平台。
企业数据的很大一部分是结构化的表格数据,存储在诸如SAP和Salesforce之类的系统中。这些数据驱动着整个业务的规划和预测。虽然对于像文本这样的非结构化数据,如大型语言模型(LLMs)引起了很大的兴趣,但Ikigai的专利大型图形模型(LGMs)专注于使用结构化数据解决问题。
Ikigai的解决方案特别关注时间序列数据集,因为企业运行的四个关键时间序列是销售、产品、员工和资本/现金。了解这些时间序列在关键时刻(例如推出新产品或进入新地理区域)如何相互关联,对于做出推动最佳结果的更好决策至关重要。
您如何描述当前的生成AI领域,并展望未来的发展?
引起人们兴趣的技术,如OpenAI、Anthropic等的LLMs,来自消费者背景。它们是在互联网规模的数据上进行训练的,而训练数据集只会越来越大,这需要大量的计算能力和存储空间。训练GPT4花费了1亿美元,预计GPT5将花费25亿美元。
这种情况在消费者环境中是可行的,因为成本可以在非常庞大的用户集中共享,并且一些错误只是训练过程的一部分。但在企业中,不能容忍错误,幻觉不是一个选择,准确性至关重要。此外,训练基于互联网规模数据的模型的成本根本无法承受,而利用基础模型的公司则面临知识产权和其他敏感数据的风险。
虽然一些公司已经采取了构建自己技术堆栈的路线,以便在安全环境中使用LLMs,但大多数组织缺乏构建自己技术堆栈所需的人才和资源。
尽管面临诸多挑战,企业仍希望获得LLMs提供的体验。但结果必须准确,即使数据稀疏,还必须有一种方法将机密数据排除在基础模型之外。降低总拥有成本(包括训练和升级模型的成本、对GPU的依赖以及与治理和数据保留相关的其他问题)的方式也至关重要。所有这些都导致了与当前拥有的解决方案非常不同的一套解决方案。
公司如何制定策略以最大化生成AI的好处?
关于大型语言模型(LLMs)及其潜在应用已经有很多文章,但许多客户都在问“我该如何建立差异化?”
对于LLMs,几乎每个人都将拥有相同的能力,例如聊天机器人体验或生成营销电子邮件和内容-如果每个人都有相同的用例,那就不是差异化。
关键是将重点从通用用例转移到寻找与您的业务和情况相关的优化和理解领域。例如,如果您从制造业转移运营到中国以外的地方,如何规划物流、劳动力和其他因素的不确定性?或者,如果您想构建更环保的产品,材料、供应商和成本结构将发生变化。您如何对此进行建模?
这些用例是企业试图在不确定的世界中使用AI来运营和规划的一些方式。找到特定性并根据您的独特需求定制技术可能是利用AI实现真正竞争优势的最佳方式。
公司在部署生成AI时面临的主要挑战是什么,如何克服这些挑战?
通过倾听客户的意见,我们了解到,虽然许多人已经尝试过生成AI,但由于成本过高和安全问题,只有一小部分将其推向生产环境。但如果您的模型只能在您自己的数据上进行训练,只需运行在CPU上而不需要GPU,并且能够提供准确的结果以及关于如何获得这些结果的透明度,那会怎样呢?如果所有的监管和合规问题都得到解决,不会有关于数据来源或重新训练多少数据的疑问?这就是Ikigai通过大型图形模型带来的东西。
我们帮助企业解决的一个挑战是数据问题。几乎100%的组织都在使用有限或不完善的数据,而且在许多情况下,这是阻碍使用AI的障碍。公司经常谈论数据清理,但实际上,等待完美的数据可能会阻碍进展。能够使用有限、稀疏数据的AI解决方案至关重要,因为它们允许公司从现有数据中学习,并考虑到变更管理。
另一个挑战是内部团队如何与技术合作以获得更好的结果。特别是在受监管的行业中,人工监督、验证和强化学习是必要的。将专家纳入循环确保AI不是在真空中做出决策,因此寻找能够融入人类专业知识的解决方案至关重要。
您认为成功采用生成AI在多大程度上需要公司文化和思维方式的转变?
成功采用生成AI需要公司文化和思维方式的重大转变,需要高层的强烈承诺和持续教育。我在Eightfold时亲眼见证了这一点,当时我们将我们的AI平台引入了140多个国家的公司。我始终建议团队首先向高管介绍可能性、如何做到以及如何实现。他们需要有承诺来完成这一点,这涉及一些实验和一些承诺的行动方案。他们还必须了解对同事的期望,以便为AI成为日常生活的一部分做好准备。
自上而下的承诺和高管的沟通非常重要,因为有很多人散布恐慌,声称AI会夺走工作,高管需要设定一个基调,即虽然AI不会直接消灭工作,但每个人的工作在未来几年都会发生变化,不仅仅是底层或中层人员,而是每个人。在部署过程中进行持续教育对于团队学习如何从工具中获得价值并调整工作方式以融入新的技能非常重要。
采用符合企业现实的技术也很重要。例如,您必须放弃这样一个想法,即您需要整理所有数据才能采取行动。在时间序列预测中,当您花了四个季度来清理数据时,可能已经有更多的数据可用,而且可能是一团糟。如果您一直等待完美的数据,您将无法使用您的数据。因此,能够使用有限、稀疏数据的AI解决方案至关重要,因为您必须能够从现有数据中学习。
另一个重要的方面是在循环中添加专家。假设AI是魔法是错误的。在许多决策中,特别是在受监管的行业中,您不能让AI做出决策。您需要监督、验证和强化学习-这正是消费者解决方案变得如此出色的原因。
您能分享一些成功利用生成AI的公司的案例研究吗?
一个有趣的例子是一个市场客户,他们正在使用我们来合理化他们的产品目录。他们希望了解携带的最佳SKU数量,以便在满足客户需求的同时减少库存携带成本。另一个合作伙伴在医院、零售和酒店行业进行劳动力规划、预测和排班,他们使用我们进行劳动力平衡。在他们的情况下,所有的数据都存储在不同的系统中,他们必须将其整合到一个视图中,以便在员工健康和运营卓越之间取得平衡。但由于我们可以支持各种各样的用例,我们与客户合作进行各种工作,从预测产品使用量作为转向基于消费模型的一部分,到欺诈检测。
您最近成立了一个AI伦理委员会。这个委员会有哪些成员,其目的是什么?
我们的AI伦理委员会旨在确保我们正在构建的AI技术以伦理和负责任的设计为基础。这是我们作为一家公司的核心部分,我很荣幸能够与如此出色的一群人一起参与其中。我们的委员会包括像Munther Dahleh博士这样的杰出人物,他是数据系统与社会研究所(IDSS)的创始主任,也是麻省理工学院的教授;Aram A. Gavoor博士,乔治华盛顿大学副院长,行政法和国家安全领域的知名学者;Michael Kearns博士,宾夕法尼亚大学计算机和信息科学国家中心主席;Michael I. Jordan博士,加州大学伯克利分校电气工程和计算机科学、统计学系的杰出教授。我也很荣幸能够与这些杰出的人一起担任委员会成员。
我们AI伦理委员会的目的是解决影响AI开发和使用的紧迫的伦理和安全问题。随着AI迅速成为几乎所有行业的消费者和企业的核心,我们认为优先考虑负责任的开发至关重要,不能忽视对伦理问题的需求。委员会将每季度召开会议,讨论重要主题,如AI治理、数据最小化、机密性、合法性、准确性等。每次会议结束后,委员会将发布行动和下一步的建议,组织应考虑采取的行动。作为Ikigai Labs致力于道德AI部署和创新的一部分,我们将实施委员会推荐的行动项目。
Ikigai Labs在去年8月获得了2500万美元的融资。这将如何帮助发展公司、产品以及最终客户?
我们的核心团队与麻省理工学院有着坚实的研究和创新基础,因此这次的融资重点是使解决方案更加稳健,并引入与客户和合作伙伴合作的团队。
我们可以解决很多问题,但我们专注于通过时间序列超级应用程序解决一些有意义的问题。我们知道每个公司都依赖于四个时间序列,所以目标是深入覆盖这些时间序列并快速实现:例如销售预测、消费预测、折扣预测、如何下架产品、目录优化等。我们对将基于表格数据的GenAI交到尽可能多的客户手中感到兴奋并期待。
Kamal将参加2024年6月5日在圣克拉拉举行的AI&Big Data Expo的题为“克服的障