您还未登录! 登录 | 注册 | 帮助  

您的位置: 首页 > 行业资讯 > 正文

推动或暂停人工智能:CIO为前进道路提供建议

发表于:2023-05-17 作者:Paula 来源:企业网D1Net

随着人工智能的炒作和发展如火如荼,IT领导者发现自己在企业中使用人工智能方面处于一个微妙的转折点。

在埃隆·马斯克和人工智能技术先驱Geoffrey Hinton发出严厉警告之后,IT领导者们开始向全球的机构、咨询公司和律师寻求有关未来道路的建议。Hinton最近从谷歌公司离职,他阐述了人工智能带来的风险,并呼吁暂停此类人工智能的开发。

美国出版界巨头赫斯特集团(Hearst)高级副总裁兼CIO Atti Riazi表示:“最近,埃隆•马斯克等科技公司的CEO对人工智能潜在危险的警告表明,我们在减轻技术创新带来的后果方面做得还不够。作为创新者,我们需要负责任地进行创新,并理解技术对人类生活、社会和文化的影响。”

这种观点得到了许多IT领导者的认同,他们认为,在自由市场的社会中,创新是不可避免的,应该得到鼓励,尤其是在这个数字化转型的时代,但前提是要有正确的规则和法规,以防止出现业务灾难或更糟的情况发生。

Regeneron Pharmaceuticals公司的CIO Bob McCowan表示:“我对他们的说法表示认同,对于某些行业或某些高风险用例来说,暂停使用可能是合适的,但在许多其他情况下,我们应该继续推进,快速探索这些工具提供的机会。

许多董事会成员都在质疑,这些技术是否应该被采用,还是会带来太多风险?我认为两者兼而有之。忽视它或关闭它,虽然可能错过重要的机会,但在没有适当控制的情况下让员工自由访问也可能使企业面临风险。”

虽然人工智能工具已经使用多年,但最近面向大众发布的ChatGPT却引发了相当多的争议,让许多企业CIO和他们的董事会对如何决定而犹豫不决。一些企业的CIO正在非常认真地对待行业和人类的风险。

美国金融业监管局的CIO Steve Randich表示:“我每天都在担心这一点。”美国金融业监管局是对美国证券交易委员会负责的重要监管机构。

Randich指出,他最近看到的一张图表表明,人工智能程序的“心智”能力刚刚超过了一只老鼠,并将在10年内超过人类的能力。他说:“考虑到我的担忧,特别是如果人工智能程序可能受到不良行为者的影响,并能够进行黑客攻击,例如获取核武器密码。”

麻省理工学院斯隆管理学院高级讲师George Westerman表示,全球各地的一些企业高管都在向麻省理工学院斯隆管理学院和其他机构寻求有关使用生成式人工智能的伦理、风险和潜在责任的建议。不过,他认为,大多数CIO已经与他们的高管和董事会进行了探讨,而生成式人工智能本身并没有强加给企业及其高管不遵守的新法律责任。

Westerman在谈到CIO对人工智能影响个人的法律风险时表示:“我认为,就像所有其他公司的高管一样,人们的工作也会有法律保障。”他指出,不恰当地利用这项技术谋取个人利益是例外。

追逐生成式人工智能的发展

与此同时,ChatGPT的发布扰乱了监管机构的监管工作。欧盟原本计划在上个月颁布人工智能法案,但在ChatGPT发布之后选择延迟推出,因为许多人担心这些政策在生效之前就已经过时了。在欧盟委员会及其相关管理机构努力理清生成式人工智能的影响之际,欧洲和美国的企业高管正在认真对待这些警告。

英国电网运营商National Grid公司首席信息和数字官Adriana Karabutis表示:“随着人工智能成为我们工作的关键部分,狭义的人工智能变成了通用的人工智能,那么谁来承担责任?技术负责人?无生命的机器模型?批准/改变训练模型的人类干预者?人工智能技术发展迅速,但围绕它的控制和道德却没有。”该公司总部设在英国,但也在美国东北部开展业务。

Karabutis说,“这是一场追逐游戏。为此目的,同时,在企业中管理人工智能的责任在于监督企业和组织风险的首席技术官。鉴于人工智能的兴起,首席技术官/首席执行官/首席数据官/首席信息安全官不再是信息风险的所有者。IT部门依赖于首席执行官和所有高管的努力,这意味着必须拥有企业文化和对人工智能巨大利益以及风险的认识。”

总部位于斯德哥尔摩的爱立信公司的副总裁兼企业自动化和人工智能主管Rickard Wieselfors表示,爱立信公司看到了生成式人工智能的巨大优势,并正在投资创建多种生成式人工智能模型,包括大型语言模型。

他表示:“人工智能行业存在一种健全的自我批评机制,我们非常认真地对待负责任的人工智能。在训练中使用的文本或源代码的知识产权方面,有许多问题没有答案。此外,查询模型时的数据泄漏、偏差、事实错误、缺乏完整性、粒度或缺乏模型准确性当然会限制用户使用模型的目的。”

Wieselfors补充说:“能力越大,责任越大,我们支持并参与当前的自我批评精神,以及对人工智能可能给世界带来什么的哲学思考。”

Choice Hotels公司的CIO Brian Kirkland等一些CIO正在监控这项技术,他们认为生成式人工智能还没有完全做好商业用途的准备。

Kirkland说,“我认为,对于各行业的企业来说,确保他们意识到使用生成式人工智能技术(例如ChatGPT)的风险、回报和影响是很重要的。数据所有权和生成的内容存在风险,必须理解和管理,以避免对企业产生负面影响。与此同时,还有很多上行空间和机会值得考虑。当能够安全地将私有数据集与这些系统中的公共数据合并时,其好处将是显著的。从生成的人工智能内容到复杂而有意义的业务分析和决策,人工智能和机器学习如何实现商业价值将发生巨大变化。”

调研机构Gartner公司最近对2500多名高管进行的一项调查表明,45%的高管表示,对ChatGPT的关注促使他们增加了对人工智能的投资。70%以上的受访者表示,他们的企业目前正在探索生成式人工智能,19%的企业正在进行试点或生产应用,联合利华和CarMax等公司的项目已经显示出发展前景。

即将在5月15日举办的麻省理工学院斯隆管理学院CIO会议上,曾长期担任IBM研究员、现任麻省理工学院斯隆管理学院研究员的Irving Wladawsky-Berger将主持一个小组讨论,将探讨进入生成式人工智能领域的潜在风险和回报。最近,他还主持了一场关于这项技术的会前讨论。

Wladawsky-Berger说,“如今,我们都对生成式人工智能感到兴奋。”他引用了人工智能在基因组学方面的重大进展。

但他指出,对那些采用这项技术的人员进行尽职调查并不是一项简单的任务。他说,“这需要做很多工作,我们必须弄清楚哪些是有效的,哪些是安全的,以及应该进行哪些试验。这些需要花费一些时间。”

该小组的另一位CIO、Zoetis公司的首席数字和技术官Wafaa Mamilli表示,生成式人工智能正在增强制药公司治疗慢性人类疾病的信心。

她说:“由于生成式人工智能技术和基因研究计算能力的进步,现在在美国和美国以外的国家、日本和欧洲都有针对治疗糖尿病的试验。”

护栏和指南是生成式人工智能的基本要素

华尔街已经注意到该行业对生成式人工智能的迅速接受。根据IDC公司的数据,2022年是对生成式人工智能初创公司投资创纪录的一年,股权融资超过26亿美元。

IDC公司最近关于生成式人工智能的几份报告中的一份报告称:“无论是使用Jasper.ai创建内容,使用Midtravel创建图像,还是使用Azure OpenAI服务进行文本处理,都有一个生成式人工智能基础模型来促进业务的各个方面。”

Regeneron公司的McCowan指出,CIO们已经有办法设置护栏,安全地推进生成式人工智能试点。

McCowan说:“至关重要的是,企业要有政策和指导方针来管理那些计划使用这些技术的人员的访问和行为,提醒员工保护知识产权或个人可识别信息,并重申共享的内容可能会公开。让创新者和律师一起找到一个基于风险的使用这些工具的模型,并清楚可能会泄露哪些数据,以及对这些解决方案的输出有什么权利。在开始时使用风险较小的用例技术,并从每次迭代中学习。”

研究机构Forrester Research公司的分析师David Truog指出,在企业开始试点并在生产中使用生成式人工智能之前,人工智能领导者给生成式人工智能贴上警告标签是正确的,他也相信这是可以做到的。

Truog说:“我不认为停止或暂停人工智能是正确的做法。更务实、更有建设性的方法是明智地选择专门的人工智能可以提供帮助的用例,嵌入深思熟虑的护栏,并有意识地采取空气间隙策略。这将是一个起点。”

一家咨询公司的DevOps IT主管指出了CIO在使用生成式人工智能时降低风险的几种方法,包括像风险投资家一样思考;清楚地理解技术的价值;在测试之前确定伦理和法律考虑因素;尝试但不要急于投资;并从客户的角度考虑其影响。

总部位于明尼阿波利斯的Perforce公司的首席技术官Rod Cope表示:“明智的CIO将组建监督委员会,或与外部顾问合作,外部顾问可以指导企业实施,并帮助制定指导方针,以促进负责任的使用。虽然投资人工智能可以为企业提供巨大的价值,但将其应用到其技术堆栈中需要深思熟虑,以保护企业、员工和客户。”

虽然生成式人工智能的兴起肯定会影响人们的工作,但管理服务提供商MetTel公司的首席技术官Ed Fox等一些IT领导者认为,这种影响可能被夸大了,尽管每个人都可能不得不适应,否则就会落后。

Fox表示:“在人工智能的应用过程中,一些人会失业,但不会达到一些人想像的严重程度。我们这些不接受实时百科全书的人员将被淘汰的事实。”

尽管如此,如果有一个主题是肯定的,那就是对大多数CIO来说,谨慎行事是最好的前进道路。

Wipro’s Google Business集团的总经理Tom Richer表示,CIO们必须在扼杀创新的严格法规和确保负责任地开发和使用人工智能的指导方针之间取得平衡。他指出,他正在与康奈尔大学及其人工智能计划团队合作,谨慎行事。

Richer说:“对于CIO和IT高管来说,意识到生成式人工智能的潜在风险和好处,并与该领域的专家合作,制定负责任的使用策略,这一点至关重要。这种合作需要大学、大型科技公司、智库和政府研究中心的参与,以制定开发和部署人工智能技术的最佳实践和指导方针。”