央广网北京5月18日消息(记者 牛谷月)5月17日,由搜狐科技主办、央广网作为战略支持媒体参与的“2021搜狐科技5G&AI峰会”在北京开幕。峰会大咖齐聚,共同探讨5G和AI技术的最前沿发展以及应用落地情况。

  过去一年,网约车司机、外卖员被困在系统里的话题迭起,他们的处境也受到了社会广泛的关注。峰会下午的圆桌论坛则聚焦“双面算法”,以《被困在算法里的人:社会需要怎样的AI》为主题,邀请到清华大学新闻与传播学院教授、常务副院长陈昌凤,商汤智能产业研究院创始院长田丰,货拉拉CTO张浩参与讨论。

  在讨论过程中,搜狐公司董事局主席兼CEO张朝阳也在台下与台上嘉宾发起互动,引发了一场AI技术善和恶的大讨论。本场论坛由科技智库甲子光年创始人、CEO张一甲主持。

  怎么去看待算法?陈昌凤认为,算法就是为了要解决问题,并且找到决定和决策。田丰表示,算法是帮助人类进化的必需的工具和过程。张浩则称,算法是规则的精细化,算法可以把人的意图实现地完美无缺,它是为规则制造者服务的。

  张朝阳在互动中提到,AI是一种对人类大脑的延伸,大大地提升了效率,提升之后会爆发出巨大的力量。但爆发出来以后,一定会带来伦理问题、法律问题。“我认为目前最大的问题是个人隐私问题。”张朝阳说。他还表示,在科技非均匀地爆发式发展,尤其在突发性发展的时候,相应的伦理道德和相应的法律都要同时齐头并进。

  对于AI与科技向善的关系,陈昌凤表示,人和技术最初的时候,是人应用技术,接着是技术成为人的延伸。她认为,应该让善的人主导科技,向善的科技是以人为本的科技,底线原则是以人为本。

  田丰则认为,现在最主要的不要把人当机器去用,所有的问题都是把人当机器,我们是不是能够把机器当人看,赋予它的伦理观和价值观,提升社会的整体福祉。

  以下为《被困在算法里的人:社会需要怎样的AI》的部分精彩观点。

  主持人:

  科技智库甲子光年创始人、CEO张一甲

  参与嘉宾:

  搜狐公司董事局主席兼CEO张朝阳

  清华大学新闻与传播学院教授、常务副院长陈昌凤

  商汤智能产业研究院创始院长田丰

  货拉拉 CTO张浩

  怎么看待算法?

  张浩:算法是规则的精细化,今天人工智能还做不到对创造性的东西进行主导,但是一定规则之内,算法可以把人的意图实现地完美无缺,这是算法的价值和边界,算法是为规则制造者服务的。

  田丰:算法只是把我们的产业功耗,人与人之间的情感伦理的价值观数字化出来。如果未来是经济大航海时代,肉体是一个牵绊,人必须要实现数字孪生,这是一种进步,并不一定是困扰我们。算法是帮助人类进化的必需的工具和过程。

  陈昌凤:算法就是为了要解决问题,并且找到决定和决策。就是你刚才说到的选择。它的主要的手段应该是通过计算,利用计算去解决问题,并且找到自己决定的一个系统的过程。

  张一甲:刚才的回答和人工智能都没有关系。如果没有人工智能,算法可能相对好理解,只是代替人做人不愿意做或者懒得做的事情。不存在试错,不存在误差,它执行就好了,那是专家时代的算法,或者算法只是非常小的辅助作用,就像一本书也是把思想呈现给别人。

  但到了人工智能之后,算法慢慢在某种意义上逐渐地进入甚至是侵蚀人类很多的脑子需要做的事情,。我相信不会有一个工程师刻意写一套算法希望让一个小哥出车祸。但是在AI的运行逻辑下,事实造成了恶的结果。

  田丰:人类是算法的父母,因为我们不断地喂数据。不是很完美的父母,为什么要求孩子要特别完美呢?这是不太合理的。但是我们说到算法可能造成的负面影响,我觉得也是客观的,不管是骑手还是消费者,如果影响到第三方利益的时候,这其实就是算法的负面影响,我们就需要纠偏。

  算法是不是吞金兽?

  田丰:AI伦理要满足三个最重要的点,国家、国际规则、公民权利,这是一个平衡。我觉得大家都在尝试全部去满足,但是在不同时间点会有优先级,目前为止国家安全是排第一的。

  陈昌凤:我觉得田院长画的图是一个大数的考虑,刚才三角是同一个逻辑上面的,既然不是同一个逻辑意义上很难做二元选择。

  张浩:不管是外卖还是出行都会遇到类似的问题。其实现在我们的AI离真正到底选择左还是右边的问题很远。

  张一甲:今天的AI已经超过了技术中性论的过程,在此时此刻真正的技术一线从业者,你们做的事情,尤其是货拉拉、滴滴这样的平台,某种意义上就是要影响很多人的福祉。

  张朝阳:首先关于AI是一种对人类大脑的延伸,大大提升了效率,因为我们人类大脑的记忆能力、存储能力、图象识别能力是很强的,但是容量不是那么大,或者经常忘记。AI可以把我们的图像识别能力延伸,帮助我们大大提升效率,提升之后会爆发出巨大的力量。

  但像当时的原子能被释放出来一样,AI一定会带来伦理问题、法律问题。我们在今天讲AI的另外一面,这是非常重要的问题。不能一味说AI多么伟大,要大力发展,但我们自己被困住了。当前更具体的是什么?我觉得物流领域配送员的压榨问题,这是一个相对小的问题。我认为最大的问题是个人隐私问题。AI的技术在法律伦理上、道德上,同时在AI技术高速发展的情况下,如何解决个人隐私问题的解决,这是当前的问题。

  田丰:我们提了很多建议,有些还在探讨过程。第一,个人隐私数据要不要保存在有公信力的,甚至政府运营的国家数据银行里面,或者公共数据平台上面?这样所有的个人隐私,包括生物特征数据是可控的,大家可以在上面应用创新,但是可以记录你所有区块链上面的技术,你滥用的话一定能够追溯到。

  第二,对于某些分析和分类,个人的基因数据、生物特征数据是不可逆的,这种是不是需要更高强度的安全加密?未来在数据交换、共享、开放上面,更多会产生一些中间的有公信力的平台做这个事情。像机器学习的训练数据一样,非常重要的是要避免算法偏见。

  张一甲:真实世界的数据就是有偏见的。互联网数据本身就不是一个好的数据池子,不是一个干干净净和公平的池子。

  田丰:有人的地方就不公平,这很正常,包括安全的保护,端到端的。很多时候算法训练出来以后是不是可解释,现在还是人工智能早期。

  陈昌凤:人和技术之间的关系一直是很复杂,从技术层面来说,人和技术最初的时候是人应用技术,接着是技术成为人的延伸,接着技术成了我们的一部分。我们换一种思维去思考的话,可以不做二元对立,我们可以说技术是可以成为人的一部分,人不可缺少的一部分,这个时候如何让这部分更好,让这部分为我所用?

  人和技术之间有很多变量,这些变量关系。今天在座的企业都在用算法、智能化,它们是会成为一个人和技术之间特别重要的关系的作用者。我们还是要找本质的关系,人和技术之间到底怎么相处?我相信人类一开始之所以成为人类其中一个重要的因素就是他会使用技术,所以人类会作为一个技术的主控者。

  AI能否实现科技向善?

  张一甲:我自己有一个担忧,人之所以成为是人使用技术,人有一天不再成为人,是从放弃了技术的主观控制权开始。人现在有一个主观地放弃数据,还有就是从大数据学习来的,不是自己做的选择。

  陈昌凤:霍金等都认为技术对人类有很大破坏,但是仍然在开发技术,这是一个悖论。这个悖论,人类要面对现实,我们就要从悖论中间找到更适合,更利于人类的,更符合人本性的东西。

  张浩:科技向善和AI并不矛盾。我自己从业的经验可以看到很多公司在逐渐调整这方面,包括骑手困在算法之中。一开始大家希望用系统和算法提高效率,但逐渐发现当初的设想是偏差的。任何事情都需要所有的行业逐渐朝科技向善的方向努力,我们现在很多公司最开始只考虑当时当刻的效率,不考虑整体的生态、司机、用户、群体,不仅对体系有损伤,对个体的体验也会进一步损伤。现在很多行业做法逐渐把规则优化,算法是规则的延续。

  张朝阳:科技进步不是连续的曲线,是突发性的。当时蒸汽机的发明,后面原子核能的释放,计算机的发明,互联网的产生,以及AI有点爆炸的状态。但是在整个过程中,我们一定要知道,科技不一定是好的。

  知道了这一点,在科技非均匀地爆发式发展,尤其在它突发性发展的时候,相应的伦理道德和相应的法律都要同时齐头并进。科技是生产力,科技能够更高更强更大,在科技进步过程当中,伦理、道德、法律一定要齐头并进跟上,每个人从事科技的时候,要记住这件事情可能爆发巨大的灾难。

  陈昌凤:科技作恶,实际主宰者还是人,不是科技本身在作恶。

  张朝阳:但是在法律形成过程中更多是曾经性定义,未到达的水域只能通过公司发生问题,解决问题,反映到国家法律,制定法律,这是一个操作的路径。在过程中可能某些企业,一些物流公司、配送公司出现一些问题,出现问题,解决问题,确立问题。因为你根本不知道怎么定法律,只能通过操作型的出现问题,解决问题。当然自己首先要有良心,而且要知道道德上的指引。

  陈昌凤:只要有经济活动就一定有工具理性和价值理性的冲突,这是必然的。这两者的冲突恰恰需要通过外力,因为伦理或者我们的自律,人很难做到理性,这个时候需要外力,他律和法律。工具理性和价值理性的冲突,在所有的技术发展时期都有。企业肯定首先要想到效益最大化,效益最大化是工具理性的最大特征。要保护隐私,还有其它对于美的追求,信仰的追求,这种东西很可能跟你的效益最大化是冲突的。

  田丰:现在特别好的进展是在细分领域已经出现了行业自律和底线,原来都是形而上的,现在在汽车领域、家居领域、公共医疗非常好地出现了。

  更好的AI需要哪些行为准则?

  田丰:我自己在不断探讨AI伦理的研究,但是每个企业和每个人都有认知的边界,我们特别倡议在AI伦理研究上一定要跨界,一定邀请法律专家,高校伦理专家,甚至产业专家,大家共同多维度探讨,保证到所有场景里面的利益相关方的价值,某些一个没有看到就可能会引爆变成导火索。人工智能是放大效应,可以放大善,也可以放大恶。我们如何在产品之前评估风险,风险的提前防范和评估,会成为后期不管是合规还是行业自律的非常重要的核心。

  陈昌凤:向善的科技应该是以人为本的科技,底线原则是以人为本。现在底线原则变成了高线原则,但是很难做到,以人为本是向善的科技的核心。

  张一甲:以人为本听起来特别简单,但是特别难,以人为本是主语还是宾语,是用法当工具的人,还是被算法困住的人?实际某种程度并没有解决社会公平的问题,包括信息茧房的问题,包括那些司机和外卖小哥变得很无奈,变成了被工具的人。

  张浩:以人为本,我们全体社会每一个人一块参与,我对这个事情非常有信心。

  田丰:其实我觉得现在最主要的不要把人当机器去用,所有的问题都是把人当机器,我们是不是能够把机器当人看,赋予它的伦理观和价值观,提升社会的整体福祉。

  陈昌凤:要让善的人主导科技。