一个针对人工智能的项目(AI)根据该领域4260名科学家的调查,他们对人工智能未来的看法比公众乐观得多。54%的研究人员认为,这项技术带来的好处大于风险,而英国公众的比例为13%。4月1日,相关论文在预印服务器Zenodo上发表。
然而,与公众一样,研究人员也担心人工智能在虚假信息、数据滥用和网络欺诈方面的相关问题。在调查中,77%的研究人员和68%的公众表示,人工智能使错误信息成为一个问题,65%的研究人员和71%的公众对未经大家同意使用个人数据表示不满。
图片来源:Andrey Rudakov/Bloomberg via Getty
这篇论文的主要作者,英国伦敦大学学院的Cian ODonovan说,这意味着研究人员的观点与政府实施的一些计划背道而驰。后者的目的是让每个人都选择不在人工智能培训中使用自己的数据。例如,英国政府正在为版权所有者提供这样的政策。
英国牛津大学“牛津马丁人工智能治理倡议”主任Robert “我们应该做很多研究,比如如何应用人工智能,使网络防御和信息生态系统更加强大,”Trager说。
这项研究调查了包括美国、印度和其他国家在内的全球研究人员,并将他们的答案与英国国家统计局之前收集的英国公众的答案进行了比较。
当被问及人工智能将如何对人们的生活产生积极影响时,75%的研究人员认为这项技术将增加每个人的学习机会,57%的研究人员认为它将改善每个人获得医疗保健的机会。
Trager说,最引人注目的发现是,只有不到三分之一的人工智能研究人员认为这项技术应该尽快开发。“他们似乎想要一种更仔细的发展方式来降低风险。”
研究人员特别担心如何使用个人数据来训练人工智能模型。数百万人的书籍和论文“被盗”,并被用来训练人工智能模型,这引起了人们对知识产权的焦虑。只有25%的人工智能研究人员表示,公司应该允许根据公共数据对其模型进行培训。近一半的研究人员表示,我们应该明确允许人工智能企业在培训中使用他们的数据,这比公众高。
调查显示,大多数研究人员认为公众参与人工智能的重要性,但他们认为这主要与人工智能的影响和控制有关,而不是人工智能的实践和开发。叶卡捷琳娜·赫托格·牛津大学ekaterina Hertog表示,调查显示,许多人认为研究人员应该更密切地与公众合作,创造一种“反映客户现实的人工智能技术”。
这项研究还表明,人工智能研究人员是否能够实现通用人工智能?(AGI)有分歧。有一半的人不这么认为。只有21%的人强烈认为AGI必然会发生。这与科技行业的乐观观点不同。后者认为AGI可能只需要几年时间就能实现。
但是AGI的定义并不明确,所以美国企业OpenAICEOSam还不清楚。当Altman和其他技术领袖谈论OpenAI“知道如何构建AGI”或在某些任务中“超级智能”时,这意味着什么。OpenAI开发了世界著名的聊天机器人ChatGPT。
人工智能领域的其他人怀疑大型语言模型革命是否足以实现人工智能。一些公司表示,真正的人工智能需要一个能够与环境互动的主体来获得人类的所有感知和认知灵活性。但这些技术成就尚未实现。
赞一个