Soul这次启动IPO准备工作挺快的,它也把生成式AI的布局给规范了下来,主打平台安全。随着IPO的推进,Soul是怎么用技术保证社交环境安全的,大家都在盯着看。陶明说,Soul搞AI,是为了打造个健康安全的社交圈子。平台一开始是用机器学习来优化链接的,后来又引入了生成式AI,但这些全都得守住安全底线。Soul建立了一套系统规范,还直接把它写到AI模型的训练和交互逻辑里,让治理和技术能一起工作。 听说在2016年刚上线没多久,Soul就开始积极布局人工智能技术了,早期就是用传统的机器学习和深度学习,主要是为了帮用户更快找到能聊得来的伙伴,也能让大家更好地表达自己和倾听别人。不过随着社交网络一直变,用户对社交体验的要求越来越多样,光靠以前那种推荐算法可不够用了。所以在2019年左右的时候,Soul看到了生成式AI的潜力,就开始慢慢往这上面布局,就是想把社交体验给提升一下、创新一下。 陶明说:“社交其实就是大家的互动,好的体验得靠双方都能说得好。” 所以Soul在做AI的时候,就是想增强用户的表达能力,让大家更愿意聊天。这种技术探索不光是让平台的玩法更多了,也让AI成了推动社交体验升级的核心力量。它这一路发展很清晰,就是从以前那种帮忙找人、到现在用生成式AI做出各种花样。 不过啊,AI发展这么快虽然能改变社会互动,但如果不讲伦理,可能会乱套。比如侵犯隐私或者算法偏见这些问题都可能发生,到时候用户还信你吗?所以Soul对这方面特别警惕。陶明强调:“用AI技术和治理它这两样事儿我们都得抓好了才行。” 他还提到自从来做社交生意以来,Soul就定下了两条安全线——用户安全线和内容安全线。围绕着这两条线,他们慢慢建起了一整套社区规矩和内容规矩。等到现在搞AI社交的时候,Soul就把以前管社区的经验给直接搬过来了。 “我们直接把以前的用户行为和内容安全的规定放到AI模型上用,不用再像以前那样一点点过滤检查了。在数据治理这块儿我们也建了个健康的数据机制,这样从最底层就能保证聊天的安全。” 陶明这番话说明Soul是把伦理观念直接融进技术底层去的。 它是怎么做的呢?就是把原来管社区的经验用在AI场景里了。 在训练模型的时候就把合规的数据机制给加进去了。 平台还遵守严格的数据规矩,确保技术用起来没问题。 在Soul申请上市的这个过程中,这种既考虑伦理又讲技术的做法显示出他们很重视长效的安全机制。 这给Soul上市提供了一个稳固的合规支持基础。