您还未登录! 登录 | 注册 | 帮助  

您的位置: 首页 > 行业资讯 > 正文

2023年人工智能和机器学习的六大趋势

发表于:2023-01-30 作者:学研妹 来源:Python学研大本营

人工智能继续改变我们的世界,因为公司希望通过智能手机、智能电视、智能汽车——智能一切——实时提供智能体验来赢得消费者。但随着新机遇的出现,组织也在寻求跨越 AI 鸿沟的过程中发现新的挑战。以下是我将在来年追踪的六大 AI/ML 趋势,以及有关企业如何保持领先于每个趋势的建议。

1. 实时用例推动 ML 技术堆栈的变化

我们公司的研究小组 Verta Insights最近的一项研究发现,超过三分之二的 ML 从业者预计实时用例在未来三年内会显着增加。这种趋势将挑战其 ML 技术堆栈围绕分析/批处理工作负载构建的公司,这些工作负载不适合在面向客户的应用程序中大规模操作实时用例。

建议:一直生活在数据仓库世界并支持分析/批处理工作负载的组织需要重新评估他们的技术堆栈,着眼于实时用例的事务处理。他们还需要依靠负责任的人工智能,以确保他们在与客户互动时不会从有用的超个性化变成令人毛骨悚然的界限。

2. 加强 AI 监管使人们关注支持道德 AI 的工具

欧盟人工智能法案。美国数据隐私和保护法。保护开源软件法案。围绕人工智能的拟议法规数量正在迅速增加,这表明公司自行监管其 AI/ML 项目(或根本不监管)的时代即将结束。Gartner预测,到 2025 年,法规将迫使公司关注 AI 道德、透明度和隐私。

建议:公司必须确保他们拥有企业模型管理工具以满足新的监管要求,例如“算法设计评估”和“算法影响评估”。这意味着能够跟踪和报告模型是如何创建、训练、测试、部署、监控和管理的。如果你没有适当的道德委员会来监督 AI/ML,现在是时候建立一个,在监管机构来敲你的门之前。

3.模型管理成为机器学习的重心

机器学习工具仍然高度分散。这带来的挑战之一是,迄今为止,不同的利益相关者(从业者、管理层、风险和 IT)还没有对端到端 ML 生命周期有一个共同、统一的看法。但现在,模型管理平台将提供一个重心,将围绕实验、生产、机器学习数据和编排的独立工具捆绑在一起。实际上,模型管理平台成为企业管理所有 AI/ML 的控制塔。

建议:对机器学习采取整体方法,并考虑如何在整个模型生命周期中管理模型。您的 ML 工具是否具有可让您端到端管理模型的重心?识别并填补实验、生产、ML 数据和编排工具中的空白,同时实施模型管理平台,使您能够查看和控制整个模型生命周期。

4. 公司建立机器学习平台团队以确保关键业务模型顺利运行

认真对待实时机器学习的公司将组建一个 ML 平台团队,以确保他们的模型与其他关键业务应用程序具有相同的高可靠性和可用性。ML 平台团队组装、管理和改进工具,使模型在生产中顺利运行。挑战在于寻找并雇用具备担任该职位所需的技术和软技能的“独角兽”。

建议:您无需聘请数十名平台工程师即可开始。只需一两个工程师即可开始构建您的 ML 平台团队。(注意:希望提升技能水平的 DevOps 工程师可能是不错的候选人。)为团队配备一套良好的可操作 AI 工具,以快速提高 AI/ML 项目的性能,然后在这些成功的基础上再接再厉。

5. 机器学习产业化推动机器学习流程标准化

通常,在 AI/ML 在大型组织中扎根的地方,我们看到孤立的数据科学团队分布在不同的业务部门,每个部门都有自己的工具和流程。当 ML 处于小规模、定制项目的手工阶段时,这是可行的。但是,当一家公司将 ML 用于工业规模的面向客户的应用程序时,治理就变得必不可少,而治理需要具有制衡机制的标准化流程来提高效率,同时降低风险。

建议:首先确定一个小组来领导整个公司的 ML 标准化。这可以是企业架构组、数据科学卓越中心或 ML 平台团队。该小组的任务是创建企业范围的标准,以实现 ML 的快速和大规模,但有确保遵循正确流程并将风险降至最低的护栏。

6. 生成式人工智能席卷创意艺术,引发道德和欺诈问题

稳定扩散、“文本到图像”和其他生成式人工智能背后的技术吸引了大量风险投资。与用于文本生成的 GPT-3 一起,稳定的扩散代表了一个阶段性的变化,加速了创造性工作并开辟了新的表达途径。但鉴于这些技术能够大规模创建虚假内容,因此引发了伦理问题。

建议:了解这项技术的人需要带头确保将道德融入生成式人工智能用例中。此外,依赖客户数字输入的公司应该考虑生成式人工智能如何为欺诈开辟新途径——比如提交保险索赔的汽车损坏的伪造图像——并制定加强欺诈检测以降低风险的战略。

正如上述趋势所表明的那样,随着技术的成熟和公司发现将 AI 融入智能产品和服务的创新方法,AI 正在迅速发展。没有任何组织能够幸免于 AI 的变革性影响,高管们现在就应该开始确保他们的公司为 AI 驱动的未来做好准备。