很少有技术像AI那样引发如此多的讨论和辩论,工人、知名高管和世界领导人在对AI的赞扬和担忧之间摇摆不定。
诚然,CIO没有被传唤到国会作证,但他们正在高管套房和董事会会议室接受盘问,因为企业领导人向他们的技术主管提出了各种具有挑战性的问题,预计CIO将回答这些问题,所以要做好准备。
总部位于洛杉矶的IT咨询公司AVOA的CIO战略顾问Tim Crawford表示:“CIO处于这些对话的核心位置,CIO不必知道所有信息,但作为看到整个公司的人,CIO应该能够带来洞察力,帮助其他高管将所有信息整合在一起。”
IT领导人表示,他们正在讨论从AI实施的成本到AI是否对人类构成生存威胁的方方面面,有些人担心。虽然他们不能回答后者,但他们必须领导关于前者和其他类似话题的对话。
以下是你应该与你的团队、业务线领导人、高管同事和董事会进行的核心AI对话。
1、哪些业务案例真正需要AI?
ChatGPT在2022年底推出后引起了相当大的轰动,人们叫嚣着要测试这项新技术。此次发布还将AI推到了聚光灯下,并推上了许多企业议程的首位。专业服务公司安永发布的2023年10月CEO展望报告显示,99%的CEO计划投资于GenAI。
但这些CEO的投资是正确的吗?这是许多CIO都在问的问题,因为一些人报告说,每当有AI解决方案的需求时,他们就是提出业务需求和业务价值的人。
阿拉斯加州CIO Bill Smith一直处于这种情况,他让一名员工宣布需要AI解决方案,但当被问到原因时,这名员工只回答说:“我们只是需要AI。”
我们都在谈论AI,围绕它有很多期望和炒作,但与此同时,围绕在这些炒作周期中可能发展的用例真的缺乏严谨性,因此,人们往往心怀解决方案,而不是要解决的问题,所以我在问,‘你到底想解决什么问题?’因为他们需要的可能不是AI。“Smith说。
Smith说,如今人们倾向于谈论AI,而不是首先关注要解决的问题或被抓住的机会,考虑到围绕GenAI的炒作,这并不令人惊讶,尽管如此,他的目标是通过教育其他人了解AI来使对话更有成效。他和他的团队已经创建了信息平台、文档和演示文稿,描述了各种类型的AI以及如何使用它们,并解释了AI和机器学习可能如何以及在哪里有用 - 以及为什么这不是他们所有问题的解决方案。
2、哪些创意将真正提供商业价值?
企业对AI的投资正在获得回报——这是一个巨大的回报。
最近,微软委托IDC进行了一份名为《AI的商业机会》的报告,对2100名全球商业领袖进行了调查,发现他们看到了350%的回报,每投资1美元AI就能收回3.5美元。此外,公司实现其AI投资回报的平均时间表是在部署后14个月内。
尽管有这些发现,但CIO们表示,他们发现自己在提醒同事和团队,并不是所有的AI项目都值得追求或立即追求。
软件制造商Salesforce的CIO Juan Perez表示:“像AI这样的技术很容易让人兴奋,人们希望实施100种不同的试点和测试,但你必须专注于为公司提供价值的想法。”
“这是CIO们面临的一个有趣的两难境地,我们希望确保我们的业务能够使用新技术,这是我的个人目标,但我也希望确保我所做的事情与业务及其目标保持一致,这样它才能取得成功。”
为此,Perez像评估其他使用其他不那么被炒作的技术构建的项目一样评估AI项目,与团队合作评估用例、治理需求、预期的业务收益和预期的回报。
“你不能在不会带来价值的项目上冲淡你的努力,” Perez补充道,“因此,选择那些你可以看到AI可以为公司带来的价值和伟大目标的几个关键领域,并将赌注放在这些领域,专注于这些领域,从这些领域中学习,并在学习的过程中扩展到其他领域。”
3、在资源有限的情况下,我们可以合理地实现什么目标?
在GenAI突然出现后,跨国制造商Avery Dennison的高级副总裁兼CIO Nicholas Colisto一直在努力让他的公司接受它的潜力。
“AI已经存在很长一段时间了,”他说,“但当GenAI出现并在2023年初真正爆炸式增长时,许多公司——包括我们的公司——对它说了不。(我们公司的领导人)希望确保有适当的指导方针来保护公司、数据和员工。”
为了克服这些问题,Colisto致力于教育领导者关于AI的能力和风险,试图让公司从“不知道”转变为“不知道”。他的努力得到了回报,自那以后,Avery Dennison进入了GenAI的构思、试点和运行。
尽管如此,他承认,他不得不通过对资源的现实核查来缓和一些前进的势头。
Colisto说:“我不得不提醒人们,AI并没有带来新的资金。”他补充说,一些人错误地认为,该公司长期的融资做法并不适用于与AI相关的举措。“人们认为AI在公司投资方面是不同的,他们认为企业会有所有的钱用于AI,但我没有听到很多公司表示,他们将忽略投资周期,全力以赴使用AI。”
其他CIO表示,他们也在就资金、人才和时间的限制展开对话。
商业转型服务公司Genpact副总裁兼全球AI/ML服务负责人Sreekanth Menon表示:“人才是目前的一个问题,公司需要一种不同类型的人才来与AI合作,他们需要大量的技能提升,或者他们需要引进新的人才。每个人都在试图与他们的合作伙伴合作,建立一个(AI人才)生态系统,但这一切都需要时间。”
许多公司都受到人才短缺的影响。微软/IDC的研究发现,52%的受访者将缺乏熟练工人列为实施和扩展AI的最大障碍。
CIO还提醒同事,他们的IT团队还有其他工作要做。“我们有正常的项目周期,我们有一些常规项目正在筹备中。我们不会为了AI放弃一切。“Colisto说。
CIO们表示,他们没有就这些问题争论不休,而是将对话带回了业务优先事项。
Colisto说:“我们要求我们的业务部门确定与战略目标一致的想法,然后讨论这些想法的成本,这些想法的成本效益或创收影响,以及实现这些收益的可行性。有了AI,我们仍然需要业务部门来识别最具价值的项目,我们在所有主要功能上都有数百个用例,我们正在为那些高度优先的用例提供资金。”
4、我们数据运营的当前状态能否交付我们所寻求的结果?
CIO们不得不向同事们提出的另一个棘手话题是:企业数据质量问题如何阻碍他们的AI雄心。
S&P Global Market Intelligence为数据平台制造商WEKA进行的一项2023年对1500多名AI从业者和决策者进行的民意调查发现,数据管理是AI和机器学习部署最常被引用的技术抑制因素,同样,专业服务公司毕马威发布的2023年美国AI风险调查报告发现,数据完整性是排名第一的三大风险,其次是统计有效性和模型准确性。
数字化转型解决方案公司UST的首席战略官兼CIO Krishna Prasad表示:“数据对话是非常真实的,通常是CIO们在说,‘如果你不解决这个问题,你想要的结果就不会发生。’”
Prasad说,他在自己的公司以及该公司的客户公司都听到了这种对话。
CIO说,这是一个特别困难的讨论,因为他们通常对业务数据的状态没有责任,他们所能做的就是分享他们的观察结果,并帮助制定补救措施。
另一方面,CIO们表示,由于AI,他们呼吁在数据质量方面采取更多行动的呼声如今正变得更具吸引力。Salesforce的Perez说:“AI正在提升围绕数据的讨论,因为数据现在对企业来说比以往任何时候都更加关键。”
5、我们的风险偏好是什么?我们如何应对?
围绕AI倡议的风险和安全担忧也主导了CIO与其执行同事和团队进行的许多对话。
这是有充分理由的:公司已经看到他们的专有和受监管保护的数据被输入到开放的AI工具中,如ChatGPT,他们看到AI得出了有偏见的答案和彻头彻尾的捏造结果(称为AI幻觉)。由于缺乏可解释性,他们得到了无法认证或验证的AI输出。
Crawford说:“有很多例子表明,人们使用这项技术的方式将自己和他们的公司置于危险之中,但他们并没有意识到自己正在这么做。”
CIO们强调,阻止AI的使用并不是解决办法。禁止使用它并不能阻止它,因为一些员工可能会继续试验它。此外,企业软件制造商正在将AI融入他们销售的产品和服务中,因此AI无论如何都会进入企业。此外,由于担心风险而禁止或限制其使用,与正在推进AI倡议的竞争对手相比,该公司处于不利地位。
Crawford和其他人表示,CIO需要把这些观点摆到桌面上来。CIO现在还必须关注关于可能的法规的立法讨论,并提炼出任何法规将如何影响他们公司的AI议程。
Crawford补充道:“对于CIO来说,这是一场艰难的对话,因为他们鼓励创新,但同时又要努力保护客户数据和知识产权,因为如果CIO们说话不谨慎,他们可能会给人一种否定或不支持这项新技术的印象,人们会绕着你工作。”
6、我们的AI战略如何解决伦理问题?
德克萨斯州信息资源和CIO执行主任Amanda Crawford表示,作为她在州政府内部使用AI技术的对话的一部分,她正在谈论AI使用的伦理和可接受的参数。
“我们不想成为先锋,这不是我们渴望做的事情,因为作为政府有义务和责任,这就产生了其他新兴技术,对于像AI这样具有巨大颠覆性的技术来说,情况无疑是如此。因此,我们在政府中的步伐会慢一点,这会更周到、有目的、更深思熟虑,因为这是必须的,因为我们所做的事情的性质,我们必须保持信任。”
Crawford说,这并不是说德克萨斯州不使用AI。事实上,与许多私人实体一样,德克萨斯州政府已经在其整个运营过程中部署了聊天机器人、智能自动化和智能系统,并正在研究在哪里可以使用GenAI和其他较新的AI技术。
“但我们正在进行的对话是围绕道德和隐私挑战,以及我们在政府中对宪法权利和我们选民的隐私权的义务,我们的决定必须考虑这些因素。” Crawford解释说。
例如,她说,这些对话可能集中在一些任务是否由于法律、公共政策、最佳实践或公民期望而必须由人类而不是智能系统来执行。
Crawford说:“我经常看到,作为CIO,我的职责就是问这些问题。”她补充说,她和德克萨斯州的许多其他IT领导人都在寻找“行政和立法层面的领导层,在我们推出这项服务时,回来帮助我们解决问题。”
Crawford和政府实体并不是唯一询问AI伦理参数的人。
UST的Prasad说,CIO们正在与高管同事讨论他们的责任,如果他们的AI系统产生有偏见的结果或幻觉,他们正在讨论如何确保他们能够跟踪和解释AI的输出,以及如果他们做不到该怎么办。
“AI可以让你做各种各样的事情,但问题是你真的想这样做吗?这是一个需要与高管团队甚至董事会进行对话的话题。”