媒体:AI监测并救助自杀 给自杀者内心照进一些光( 八 )

但这显然是杯水车薪 。

在社交平台 , 每天监控到的自杀信号数和志愿者人数对比极为悬殊 。 黄智生团队中 , 按每天监控到10条信息计算 , 团队仅有余力救两三个人 。 黄智生说 , 其实因为人力不足救不了剩下的那些人挺痛苦的 , 只好尽自己的力 , 能救一个是一个 。

一开始 , 黄智生没想到工程会这么庞大 。 他原先以为 , 将程序开发出来 , 识别到自杀者的信号之后 , 接下来告诉家长就可以 。 没想到其实很多家长并不理解 , 救援也没那么简单 。

黄智生团队和朱廷劭团队正在摸索成熟的救援模式 。 除了已有的、为救援小组成员提供的救援指南《网络自杀救援指导性建议》 , 树洞行动救援团近日正在针对不同类似自杀原因 , 总结策略 , 目前已经总结完成《情感救援策略》 , 《学校霸凌救援策略》也正在形成中 。

用人工智能干预自杀 , 并非没有伦理争议 。

黄智生称 , 树洞救援获取的都是网络公开数据 , 在这方面没有涉及到隐私问题 。 被救援者同他们建立个人联系 , 私下讨论的信息都严格保密 , 不向他人透露 , 除非是报警向警方透露 。

如果报警 , 什么时候介入比较合适、怎么介入才不算侵犯隐私?

黄智生对介入有自己的看法 , 如果被救助者不是明显处于要自杀的状态则不干扰 , 如果确实处于生命危险 , 则隐私要退一步 , “拯救生命是最高的伦理” 。 他表示 , 迄今救助300多例 , 仅二三十例存在紧急情况需要报警 。

但为防止造成干扰 , 目前介入之前 , 自杀信息会经多渠道确定 , 比方被救助者确实拍图证实自己坐在楼顶要跳楼 , 就会采用报警方式 。


推荐阅读