一款基于监狱通话训练的AI模型现用于识别通话中的预谋犯罪

AI能预判犯罪意图?美国监狱用囚犯通话训练模型实时监控,隐私与安全的边界引发巨大争议!

An AI model trained on prison phone calls now looks for planned crimes in those calls

美国电信公司Securus Technologies利用多年积累的囚犯通话数据训练AI模型,旨在探测犯罪意图,目前已在部分监狱试点实时扫描囚犯通话、短信和邮件,试图预测并阻止犯罪。

该公司总裁凯文·埃尔德透露,自2023年起开始构建AI工具,利用庞大的通话录音数据库训练识别犯罪活动的模型。例如,其中一个模型基于得克萨斯州监狱系统七年间的通话数据训练而成,公司还正在开发针对其他州或县的定制模型。

过去一年中,Securus已在部分拘留设施试点实时监控囚犯对话(具体地点未公开,客户包括关押候审人员的监狱、服刑监狱以及移民海关执法局拘留设施)。埃尔德表示:“我们可以将大型语言模型应用于整个数据宝库,以探测犯罪意图,从而在犯罪周期更早阶段进行干预。”

据其介绍,调查人员可随机选择通话或针对嫌疑对象启动AI监控。模型会分析电话、视频通话、短信和邮件,标记可疑片段供人工审核,再由专员移交调查人员跟进。

埃尔德称,此类监控曾协助破获监狱内组织的人口贩卖和帮派活动,并识别出走私违禁品的狱警,但公司未向《麻省理工科技评论》提供由新AI模型发现的具体案例。

延伸思考
1. 当监控技术以“公共安全”之名渗透至思想预判层面,法律应如何界定犯罪意图与隐私权的边界?
2. 由囚犯家庭承担监控技术成本的政策,是否变相形成了“贫困者补贴执法体系”的循环?

争议焦点:数据伦理与政策博弈

尽管监狱会告知囚犯通话被录音,但囚犯权益组织Worth Rises执行董事比安卡·泰莱克指出:“这属于胁迫性同意——囚犯根本没有其他方式与家人联系。”她强调,由于全美多数州要求囚犯自付通话费用,“公司不仅未对数据使用提供补偿,反而在收集数据时向他们收费。”

Securus发言人回应称,监控政策由惩教机构制定,公司仅遵照执行,但未直接回应囚犯能否选择不将录音用于AI训练。

美国公民自由联盟全国监狱项目副主任科琳·肯德里克批评该AI系统构成侵入式监控,并指出:“难道我们要通过监控被监禁者的每句话、每个念头来预防犯罪?这再次证明技术已远远跑在法律前面。”此前Securus曾因违规录制囚犯与律师通话而陷入争议。

对此Securus辩称,该工具“并非针对特定个体监控,而是识别整个通信系统中的异常模式与违法行为”,并强调其功能是在人员短缺背景下提升监控效率,“而非无端监视个人”。

政策转向:监管放宽与成本转嫁

Securus的AI监控项目近期获得政策支持。2024年,美国联邦通信委员会(FCC)曾出台改革措施——在囚犯权益组织推动下——禁止电信公司向囚犯转嫁通话监控成本,要求监狱自付安防费用。

此举引发执法机构强烈反对。14州总检察长联合提起诉讼,部分监狱警告将切断通话服务。Securus在此期间游说FCC修改规则,主张2024年改革“矫枉过正”。

今年6月,特朗普任命的FCC委员布伦丹·卡尔宣布推迟改革截止日期,并暗示应允许电信公司用囚犯通话费资助AI监控。10月28日,FCC进一步投票通过提高费率上限,允许Securus等公司将录音存储、转录及AI分析等安防成本转嫁给囚犯。

Securus发言人表示,此举旨在“平衡通话费用可承受性与必要安防工具资金需求”,称AI监控能力是“维护监狱安全、保护公众的基础”。但FCC委员安娜·戈麦斯在反对声明中写道:“执法部门应承担无关的安防成本,而非囚犯家庭。”

新规最终生效前,FCC将公开征集意见。这场关乎技术伦理、司法公平与商业利益的博弈,仍在持续发酵。

阅读 Technology Review 的原文,点击链接

Simon