10月17日,美国兰德公司发布《人工智能在大规模生物攻击中的操作风险》报告,探讨识别和减轻在生物攻击背景下滥用人工智能,特别是大型语言模型(LLM)的风险。初步研究结果表明,LLMs可以产生与策划生物袭击有关的输出结果。然而,现有LLM的能力是否代表了一种新的威胁仍是个未决问题。鉴于其潜在风险,进行严格测试的必要性不言而喻。网络安全界一直采用“红队”针对假设威胁对系统进行测试,兰德公司研究人员正在建立类似的严格评估框架,并强调以经验为导向的定期评估对于识别和降低风险的重要性,以及进一步研究和评估有助于促进负责任地开发和部署人工智能技术。
(信息来源:兰德公司网站、全球技术地图。https://www.rand.org/pubs/research_reports/RRA2977-1.html)