本报讯 过去两年,依赖于技术的内容平台今日头条发展迅猛,但是,也在公司内外受到了不少质疑和批评,尤其是内容领域的技术与人工的路线之争。
对此,今日头条副总编辑李彤日前坦承,“作为一个编辑,我倍感压力”。
不久前,今日头条组建了专家团,邀请社会各界的专家学者对内容进行监督,征求意见。在李彤看来,这是件好事,引入权威意见能够帮助今日头条改善内容和服务质量。
李彤指出,今日头条在内容生产上始终把人工审核和推荐作为一个重要的环节,原因就在于技术存在几个局限性。
第一点,机器识别存在局限性,容易“一刀切”。比如,机器对于裸露的识别是有局限性的。一个经典的“误伤”是,Facebook曾经误伤了一张著名的越战新闻照片,照片里一位小女孩遭到汽油弹炸伤、浑身赤裸奔跑。今日头条也有过类似的情况。此前,曾下架了一张吴哥窟塑像的图片,塑像虽然“露点”,但其实是名胜古迹。这是基于机器的审核标准,造成的“误伤”。
第二点,是滞后性。一般来说,机器识别是需要大量的数据积累,再对于算法模型进行训练。这需要满足两个要求,一定的数据量和一定的学习时间。
目前,诸如假新闻、黑稿、题文不符、标题党、内容质量低等等,这部分内容由机器理解是非常难的,需要大量反馈信息,包括其他样本信息比对。
此外,一些专业化领域的知识,由于缺乏数据积累,机器难以识别,普通人也很难做出判断。在机器能够充分识别这些冷门信息之前,会有一个积累数据和学习的时间窗口。
李彤认为,这些实践中所遇到的问题,都可以通过专家意见来获得有效的改善。专家可以在发现低质量、不准确内容的第一时间做出反馈,从而大大缩短机器学习的时间。在后续模型优化的过程中,专家的意见可以作为重要的参考要素。
李彤表示:“组建专家团并不是否定技术。恰恰相反,从传统媒体人转变为今日头条的编辑,我见证了人工智能技术能够为信息的传播带来的全新变化。优质的资讯、信息,通过今日头条的技术精准地分发到每个用户的手机上。甚至把过去的寻人启示,利用人工智能技术改造,创造出了头条寻人这样帮助寻找走失人员的项目,对我来说,在过去是难以想象的。正是如此,我由衷的希望,在不断地提升机器的能力,用更好、更精确地算法模型来对内容进行审核推荐的同时,能够有更正确价值观来指导平台内容。”