中国工程院院士张亚勤:人工智能发展应与风险控制并行

最新信息

中国工程院院士张亚勤:人工智能发展应与风险控制并行
2024-03-27 18:13:00
人工智能发展未来是什么样的?3月27日,博鳌亚洲论坛2024年年会分论坛——“AIGC改变世界”上,中国工程院院士、清华大学智能产业研究院院长张亚勤,分享了他对人工智能(AI)发展现状及未来趋势的深刻见解。他认为,AI发展应与风险控制并行,未来一定是人工智能和机器智能融合,风险很大但必须正视风险。
谈技术:AI大模型会朝多模态、自主智能和边缘智能发展
  “去年在博鳌亚洲论坛,我们讨论了ChatGPT4,当时我们在谈大模型和ChatGPT4对整个技术产业变革的影响。一年之后,我们看到翻天覆地的变化,不仅是技术,包括产品、对整个生态的影响都很显著。”张亚勤在论坛伊始回忆了去年的参会情况。
  大模型和生成式AI有何关系?张亚勤表示,前者是技术、后者是能力。“因为有了预训练的、超大规模的、自监督式的大模型,生成式AI才有可能有这么大的能量。”张亚勤认为,大模型的走向分为三个方向,其中,第一个是多模态,第二个是自主智能,第三个是边缘智能。
  据了解,多模态即多种异构模态数据协同推理,多模态数据分析“外需”与高级认知智能“内需”相互促进。在AI领域中,往往指感知信息,如图像、文本、语音等协同,帮AI更准确地理解外部世界。
  张亚勤表示,AI大模型走向自主智能,就可以制定目标、规划任务、自我制定路径、自我完成方案、自我编码。
  “AI大模型另外一个发展方向是边缘智能,现在主要还是在云端,未来会走向手机、PC、机器人、汽车等终端。”张亚勤表示,信息智能、生物智能和物理智能正在逐步融合。
  生成式AI所带来的改变,并非只能做一些语音识别、人脸识别、图像识别工作。“它还能创造和生成文字、图像、视频,甚至生成代码、药物、数学公式以及物理方程式,所以它会带来巨大的技术和范式的改变。”张亚勤表示。
谈安全:AI发展应与风险控制并行
  张亚勤表示,尽管AI技术取得了翻天覆地的变化,对社会生态产生了显著影响,但还面临诸多挑战。他同意《人工智能:现代方法》作者、加州大学伯克利分校计算机科学系教授斯图尔特·罗素关于AI发展中存在问题的观点,并指出未来AI发展风险需引起重视。
  “2016年,我们参加了一个关于AI的讨论,当时斯图尔特·罗素教授也在。我们谈到了AI的创新,斯图尔特教授说,我们现在就需要治理AI发展风险。当时我还在百度,比较强调创新。我当时跟教授说咱们可能不需要太担心,也不需要担心得太早。”张亚勤表示,现在回头看,实际上AI发展已经到了非常关键的时刻,要考虑风险和安全的问题。
  在算力、算法、数据、人才这几个关键要素当中,驱动AI走得更远的因素是什么?AI的意识是否会涌现,以及涌现过后会对人类带来什么样的影响?
  针对第一个问题,张亚勤表示,以上元素都很重要,但长期来看的话,还是人才最重要。“现在人工智能发展阶段还处于42公里马拉松的第5公里,所以大家都有机会。”张亚勤表示。
  对于第二个问题,张亚勤认为,这是关于AI发展规则、连接的问题。“我认为,未来5年的主流可能还是连接主义和大模型。”张亚勤认为,人工智能加速了人类脑力的进化,未来一定是人工智能和机器智能融合。“但风险很大,我们必须正视风险,如果不加以引导控制,这个风险会转化成为人类生存的风险。”张亚勤表示。
(文章来源:大河财立方)
免责申明: 本站部分内容转载自国内知名媒体,如有侵权请联系客服删除。

中国工程院院士张亚勤:人工智能发展应与风险控制并行

sitemap.xml sitemap2.xml sitemap3.xml sitemap4.xml