随着人工智能的快速发展,对于这些改变世界的创新的开发和应用的伦理关切正在变得更加明显。
在参加AI & Big Data Expo North America之前的一次采访中,人工智能公司Pryon的首席执行官兼创始人Igor Jablokov直面了这些紧迫的问题。
人工智能中的关键伦理挑战
当被问及最关键的伦理挑战时,Jablokov表示:“不只有一个,可能有20多个。”他列举了一系列潜在的陷阱,必须小心地避免,包括人工智能幻觉和虚假信息的产生,数据隐私的侵犯以及在专有信息上进行训练时的知识产权泄露。
Jablokov表示,偏见和对抗性内容渗入训练数据是另一个主要担忧。安全漏洞,如嵌入式代理和提示注入攻击,也在他的关注列表中排名较高,以及大型语言模型的极高能耗和对气候的影响。
Pryon的起源可以追溯到20多年前现代人工智能的最早迹象。Jablokov曾在IBM领导一个先进的人工智能团队,他们设计了后来成为Watson的原始版本。他回忆说:“他们没有批准它。因此,我失望地离开了,成立了我们的最后一家公司。”那家公司当时也叫Pryon,后来成为亚马逊的第一个与人工智能相关的收购,孕育了现在的Alexa。
Pryon目前通过专注于关键基础设施和高风险用例的负责任设计来应对人工智能的伦理困境。Jablokov解释说:“我们希望创造出一些专门用于更重要的基础设施、关键工作人员和更严肃追求的东西。”
一个关键要素是为企业提供对其数据环境的灵活性和控制。“我们为他们提供了在平台消费方面的选择……从多租户公共云到私有云,再到本地部署,”Jablokov说。这使得组织在需要时可以将高度敏感的数据置于自己的防火墙后。
Pryon还强调可解释的人工智能和可验证的知识来源。“当我们的平台揭示一个答案时,您可以点击它,它总是转到底层页面,并准确地突出显示它从哪里学到了一段信息,”Jablokov描述道。这允许人类验证知识来源。
在能源、制造和医疗保健等领域,Pryon在人工智能生成的指导信息传递给一线工人之前实施了人工监督。Jablokov指出一个例子,即“主管可以在信息传递给技术人员之前对结果进行双重检查并基本上给予批准。”
确保负责任的人工智能发展
Jablokov强烈主张建立新的监管框架,以确保负责任的人工智能开发和应用。他对白宫最近的行政命令表示欢迎,但对生成式人工智能(如幻觉、静态训练数据、数据泄露漏洞、缺乏访问控制、版权问题等)存在的风险表示担忧。
Pryon一直积极参与这些监管讨论。Jablokov表示:“我们正在与一些政府机构进行秘密交流。”他说:“我们积极参与监管环境的发展,表达了我们对生成式人工智能使用所涉及风险的一些观点。”
关于无法控制的存在性“人工智能风险”的可能性,Jablokov对Pryon的受控方法持相对乐观的态度:“我们一直致力于可验证的归因……从企业自己的内容中提取出来,以便他们了解解决方案的来源,然后他们决定是否使用它。”
首席执行官明确将Pryon的使命与新兴的开放式对话人工智能助手区分开来,其中一些助手在幻觉和缺乏伦理约束方面引发了争议。
Jablokov直言不讳地说:“我们不是小丑学院。我们的东西是设计用于地球上一些更严肃的环境。”他说:“我认为你们中没有人会感到舒服,最终在急诊室里,医务人员在ChatGPT、Bing、Bard等中输入查询。”
他强调了在高风险、现实世界决策中的专业知识和情商的重要性。他说:“你希望有人有多年的经验来治疗与你目前所患疾病类似的问题。而且,你喜欢他们关心让你好转的情感品质。”
在即将举行的AI & Big Data Expo上,Pryon将展示其平台在能源、半导体、制药和政府等行业的新企业用例。Jablokov暗示他们还将展示“使用Pryon平台的不同方式”,超出端到端企业解决方案,包括为开发人员提供可能的更低级别访问。
随着人工智能的领域从狭窄应用扩展到更普遍的能力,解决伦理风险将变得更加关键。Pryon对治理、可验证的知识来源、人工监督和与监管机构的合作的持续关注,可能为各行各业更负责任的人工智能发展提供了一个模板。
您可以在下面观看我们与Igor Jablokov的完整采访:
想要从行业领导者那里了解更多关于人工智能和大数据的知识吗?请查看在阿姆斯特丹、加利福尼亚和伦敦举办的AI & Big Data Expo。这个综合性的活动与其他领先的活动同时举办,包括BlockX、Digital Transformation Week和Cyber Security & Cloud Expo。
探索由TechForge提供的其他即将举行的企业技术活动和网络研讨会here。