2025年8月29日,加拿大边境服务局(CBSA)宣布了一项备受争议的重大计划:他们将引入一项名为“旅客合规指标系统”(Traveller Compliance Indicator, 简称TCI)的人工智能(AI)系统。该系统最早预计于2027年起在所有陆路、航空和海路口岸部署,旨在对所有入境或返加的旅客进行风险评估,预测他们是否存在违法风险。这意味着,一旦被AI系统标记为“高风险”,旅客就可能面临更严格的检查。该工具目前已在六个陆路口岸进行测试。
这项创新工具利用加拿大边境服务局过去五年积累的旅客数据开发而成,将为每一位进入加拿大的旅客分配一个“合规评分”,并以此执行《海关法》及相关法规。根据一份通过信息获取请求获得的评估报告,这款AI辅助工具的核心目标是协助边境服务官员,决定是否需要对旅客及其携带的物品进行二次检查,从而提升边境安全和效率。
边境管理局提交给财政委员会的报告指出:“我们利用所获取的数据构建预测模型,以预测旅客的合规可能性。”报告乐观地表示:“TCI将通过缩短边境处理时间来提升旅客体验。该系统将使官员们能够减少在合规旅客身上花费的时间,并减少不必要的抽查转介。”
AI系统的“潘多拉魔盒”
然而,在边境管理局高呼AI提升效率和体验的同时,另一面的担忧也甚嚣尘上——这个所谓的“智能助手”,会否成为加剧偏见和引发风险的“潘多拉魔盒”?
专家们对此工具的开发过程中缺乏公众参与和意见反馈感到如坐针毡。他们尤其担心,由于分析质量仅取决于输入数据,该系统可能会助长甚至固化对某些特定类型旅客(如移民和来自某些国家的访客)的现有偏见。
温哥华移民律师Will Tao正是获得了这份报告的人,他直言不讳:“如果你在历史上对某个特定群体一直持有批判态度,那么这种偏见就会体现在数据中,并被转移到这个工具里。” 他反问道:“你寻找问题,不就总能在你寻找的地方找到问题吗?”
政府报告显示,边境管理局每年要面对超过9,600万旅客的“大军”!如果想应对未来增长,单纯增聘数百名边境官员根本是杯水车薪,何况有些口岸根本没有空间增设更多检查亭。报告强调,这款AI工具将有助于在旅客数量预计增加的情况下,仍能将边境处理时间维持在现有水平。
报告虽然指出:“没有任何决策是自动化的。目前的初级检查流程仅通过一个标记来辅助,该标记指示旅客信息是否符合某种合规模式。”但同时补充说,如果官员采纳了该工具的错误建议,可能会产生“更深远的影响”。
多伦多大学AI与数据社会研究教授易卜拉欣·巴盖里(Ebrahim Bagheri)直言不讳:“一旦风险评分或指标呈现在官员面前,它将严重影响他们的判断力。这意味着,即便最终决策权在技术上仍由人类掌握,但实际上,系统已在无形中塑造着最终结果。”
巴盖里教授进一步阐释了“误报”(false positive)的可怕后果:系统可能将完全问心无愧、守规矩的旅客错误地标记为“有风险”或“不合规”。这意味着,即便你没有做错任何事,也可能在边境被无故“挑出来”,遭遇额外的盘问或二次检查,平白浪费时间和精力,甚至影响行程。
该系统设计上旨在向官员展示其感兴趣的信息,例如旅客的交通方式以及同行人员。它还会捕捉“实时决定因素”,其中包括旅客是否单独出行、出示的身份证明类型、所用车辆的车牌号,以及加拿大边境服务局记录中任何关于旅客过往行程的数据。
加拿大边境服务局向《星报》透露,该工具是其旅客现代化计划的一部分,旨在通过技术提高旅客处理效率,从而增强边境安全。官员们表示,系统仍在完善中。目前,边境官员主要依靠其专业培训、经验和知识来识别潜在威胁。
边境管理局在一封电子邮件中表示:“旅客合规指标系统只是一个指示器,它不会取代官员的判断,也不会自动决定结果。”去年,共有284万名旅客被转介至二次检查。截至今年8月20日,已有134万名旅客被选中进行二次检查。
对非公民旅客的潜在风险
尽管边境管理局声称合规指标系统仅适用于《海关法》,但陶维律师担心,该系统可能轻易地引发针对非公民旅客的“不予入境调查”,进而导致他们被禁止进入加拿大。
陶维举例说:“如果你是加拿大公民,就算你因为携带了超额现金而涉嫌洗钱,你顶多会遇到行李被翻查、被问很多问题的不便。但从法律上讲,你仍能获准返回加拿大。” “然而,对于没有加拿大公民身份、入境权利有限的移民或访客来说,这次二次检查可能就不是简单的麻烦,而是直接引发‘不予入境’(inadmissibility)调查的‘导火索’,甚至导致被拒之门外!”
他还担忧,像其他容易对特定肤色、国籍或背景的人产生偏见的AI工具一样,这个合规指标系统可能会进一步边缘化某些特定群体。
陶维指出,在法庭上质疑官员决策的案件中,该工具也可能引发问题。他担心,如果系统只提供“模板式理由”,或者这些理由实际上是官员“事后合理化”,以掩盖机器的真正担忧,将对案件审理造成困难。
巴盖里教授表示,受该工具影响的个人必须获得质疑AI系统标记的途径,否则错误就会不断重演。
他说:“补救措施不能仅仅停留在解决某个人的个案上。机器学习模型还需要能够消除偏见,不仅要纠正个体层面的错误决策,还要检测并纠正模型本身的偏见模式。”
巴盖里认为,这需要的不仅仅是一个审查投诉的行政程序,而应是一套正式的技术程序,以便在发现系统性偏见时,能够对模型进行“重新训练、校准或更新”。政策制定者应确保从一开始就将个体补救和结构性修正纳入考量,从而持续落实公平性,而非仅仅个案处理。
边境管理局表示,已在这款新工具上投入1,530万加元,全面投入使用后,每年运营成本约为70万加元。预计到2027年底,该系统将在所有陆路口岸部署完毕,航空和海路口岸将随后跟进。
来源:thestar.com 封面:thestar