首页 数码 > 内容

人类监督是保持人工智能诚实的关键

时间:2023-08-16 16:39:02 来源:
导读 SmartNews信任、安全和客户体验主管ArjunNarayan表示,人工监督和护栏对于确保向用户推送正确的内容至关重要。该新闻聚合平台精选来自全球3

SmartNews信任、安全和客户体验主管ArjunNarayan表示,人工监督和护栏对于确保向用户推送正确的内容至关重要。该新闻聚合平台精选来自全球3,000个新闻来源的文章,其用户平均每天在其应用上花费23分钟。该应用程序可在Android和iOS平台上使用,下载量已超过5000万次。SmartNews总部位于东京,在日本和美国设有团队,由语言学家、分析师和政策制定者组成。

该公司的既定使命是在网上提供大量信息的情况下,推送可靠且与用户相关的新闻。“新闻应该值得信赖。我们的算法评估数以百万计的文章、信号和人类互动,以提供当前最重要的前0.01%的故事,”SmartNews在其网站上宣传道。

该平台使用机器学习和自然语言处理技术来识别和优先考虑用户想要的新闻。它具有评估新闻来源的可信度和准确性的指标。

纳拉扬说,这一点至关重要,因为信息越来越多地通过社交媒体消费,而社交媒体的准确性可能受到质疑。

其专有的人工智能引擎支持根据用户的个人喜好(例如他们关注的主题)定制的新闻源。它还使用各种机器学习系统来分析和评估已编入索引的文章,以确定内容是否符合公司的政策。他说,不合规的来源会被过滤掉。

由于客户支持向他的团队汇报,因此他补充说,可以快速审查用户反馈并在相关的地方进行合并。

与许多其他公司一样,该公司目前正在研究生成人工智能,并评估如何最好地利用新兴技术来进一步增强内容发现和搜索。纳拉扬拒绝提供有关这些新功能的详细信息。

不过,他确实强调了在人工智能使用过程中保留人类监督的重要性,而在某些领域仍然缺乏这种监督。

例如,大型语言模型在处理突发新闻或话题新闻时效率不高,但在用于分析常青内容(例如DYI或操作文章)时,可以以更高的准确性和可靠性运行。

他指出,这些人工智能模型在总结大量内容和支持某些功能(例如增强内容分发)方面也表现出色。他的团队正在评估使用大型语言模型的有效性,以确定某些内容是否符合公司的编辑政策。“它仍处于新生阶段,”他说。“我们了解到,人工智能模型的准确性或精度水平与您提供和训练它的数据一样好。”

纳拉扬说,当今的模型很大程度上没有“意识”,并且缺乏语境理解。他说,随着更多的数据集和数据类型被输入到模型中,这些问题可以随着时间的推移得到解决。

应投入同等的努力来确保训练数据得到“处理”并且没有偏见或对不一致进行标准化。他指出,这对于生成式人工智能尤其重要,因为开放数据集通常用于训练人工智能模型。他将其描述为该行业的“阴暗”部分,这将导致与版权和知识产权侵权相关的问题。

标签:
最新文章