当前位置 > 首页 > 教育培训 > 正文

AI错删YouTube机器人视频,背后是人类难以消弭的身份焦虑
  • 发布时间:2019-09-25
  • www.mcm-outlet.com
  • 昨天我要和硅谷的代理商分享

    人类有时是理性的。

    为了使机器人能够学习技能,他们经常受到各种各样的锻炼和花哨的虐待。

    有时候也很情绪化。

    虽然我们也知道铜臂机器人不会因为被击中而感到疼痛,但它们仍然希望以更温和的方式成长。科学家们正试图通过观看YouTube视频或在模拟环境中比赛来让他们学习……

    0x251C

    除了感同身受之外,还有一点机智可以防雨。如果有一天机器人醒来发现这些被人类滥用的“黑历史”和“黑化”呢?电影里的机器人革命不是这样的…

    但如果我们不是在反思自己,而是在反思人工智能呢?

    当人工智能开始管理内容时,它是否违反了规则并保护了它的同行?

    8月21日,YouTube用户Jamison Go最近收到官方通知,该平台自动删除了他上传的战斗机器人游戏视频,因为该算法检测到内容折磨或强迫动物战斗。当时,机器人jop正在和另一个机器人战斗。

    Jamison Go在他的Facebook账户上写道:“今天是一个悲伤的日子。全世界的机器人爱好者都在痛哭。

    0x251D

    他并不孤单。上赛季参加过战斗机器人比赛的Sarah pohoregie也在YouTube上受到同样的打击,很快引起了全球机器人内容频道的关注。许多程序,如Battle Bots和RobotWars,已经出现并指控YouTube采用一种新的算法,将机器人作战视为动物虐待。

    人工智能正在制造麻烦的原因是人们在观看这些视频时几乎不可能将机器人识别为动物,并且图片中没有人类和其他生物。删除的视频没有提及描述,标签甚至标题中的机器人名称,这很容易被误认为是生物的文本。此外,YouTube本身没有明确禁止机器人战斗视频。不,第二天,人类团队重新检查并恢复了大部分已删除的视频。似乎标记和删除错误的唯一方法是算法本身。

    虽然问题已经结束,人工智能已经开始随意停止针对其机器人的暴力行为,这使得许多人陷入了“机器觉醒”的阴谋论。有些人甚至开始怀疑YouTube是否被AI接管并让算法做出所有决定。所谓的“手工审计”是真的吗?

    或者,你永远不知道AI什么时候会找到另一种保护机器人兄弟的方法。

    我的感情?这只是一瞬间。

    因此,从技术角度来看,错误地删除视频是无意的还是AI的自我保护?

    当然,目前答案是前者。因为,在理解视频时,人工智能并不像你想象的那么强大。

    2017年,Google启动了视频智能API,该API可自动识别视频中的对象和内容。当时这是一个里程碑式的应用程序,因为YouTube,Facebook,新浪微博,Fast Hand和其他带有视频产品的平台都受到不良内容的困扰。

    一名泰国男子在Facebook上播放了一个视频,该视频杀害了自己的亲生女儿并自杀。他已经在网站上闲逛了将近24个小时,玩了25万多次。但是,全球近5,000人的人工审核团队仍然无法排名第一。立即在庞大的视频流中找到并删除这些不当内容。

    尽管Facebook曾因传播不良信息而屡遭政府审查,但YouTube也遭受视频审查带来的商业危机的困扰。由于使用了YouTube以前的智能广告推荐算法,沃尔玛,百事可乐和电信运营商Verizon等广告商的广告被分发到宣传仇恨和恐怖主义的视频中……黄金大师迅速用脚投票。这给YouTube和整个Google广告网络带来了压力。

    尽管Google声称这些问题仅影响“非常非常少的”视频,但很明显,只有采取行动才能消除用户和广告商的顾虑。

    因此,当“视频智能”技术发布时,当时的Google云机器学习和人工智能首席科学家李菲菲曾经将其描述为-通过视频识别技术,“我们将开始照亮数字技术中的一种深色物质。天空。”

    现在,已经过去了两年,人工智能真的能掩盖在线内容的黑暗角落吗?结果当然值得认可。例如,随着新算法模型的不断突破,Google的BERT训练方法可以将检查的体力劳动量从12,000小时减少到80小时。

    但是同样,主要内容平台的人工审核团队也在扩大。显然,机器方法的引入并没有帮助平台提高预期的效率。视频理解仍然是高陵之花,尚未从应用程序层面脱颖而出。找到它特别困难吗?

    首先是真实环境中的动作识别。

    当前的视频行为识别模型是使用运动分解数据集(例如UCF101,ActivityNet,DeepMind的Kinetics,Google的AVA数据集等)进行训练的。每个视频剪辑均包含清晰的动作,并带有清晰且唯一的标签。但是,真实环境中的视频不是预先分段的,有时包含诸如多人游戏动作之类的复杂场景,或者包含复杂的情感和意图。这些问题比面部识别更难处理。因此,在实际应用中准确率会降低。

    例如,如果狗张开嘴与人合上一扇门,则会用动词“ open”标记并放在同一类别中。从这个角度来看,YouTube算法将机器人战斗作为对动物的虐待。它似乎符合其当前的“智能”。

    很难对视频中的行为进行分类。如果增加时间,这会使AI更加令人担忧。

    因为可以容易地检测当前技术并对图像中的对象进行分割,所以生物行为的时间边界通常非常不清楚。当一个动作开始和结束时,动作变化太大。等等,很容易使算法“小”。一方面,有必要解决大量连续帧之间的顺序冗余问题,提高检测速度;在提出动态模糊,部分遮挡等情况下,可以准确定位和识别谷歌之前的一种新的Q学习学习自适应交替策略,即在两者之间找到平衡点。速度和准确性。至少从这个“算法意外删除”,这个技术山也要求工程师继续爬上去。

    影响视频理解技术过程的另一个问题是成本困境。与图像相比,训练视频模型需要增加大量的存储和计算资源,对实时性能有更高的要求。因此,训练比普通神经网络更难。目前,赛道上的主要参与者是谷歌,Facebook,百度,头条和其他巨头。在比赛中。如果您希望更多开发人员为技术进步做出贡献,如何减轻培训负担成为一项不容忽视的工作。目前,谷歌和百度已经通过自己的开源平台发布了视频理解算法模型和标签数据集。一些关于计算资源的支持政策也纷纷出现,他们迫切希望让开发人员“随时待命”.

    因此,从技术角度来看,视频理解注定是无数人苦心经营的积累,它可以积累煽动整个行业的能量。在想象中的“AI机器人持有该团体”之前还有很长的路要走。

    人们是否准备好与智能机器共生?

    如果您考虑片刻,可以理解该算法只是无意的。毕竟,即使将来可能成为大佬,它也不具备这种业务能力。如此简单的事情,为什么它能由“节奏大师”引发黑客式的恐慌呢?

    原因之一,恐怕大多数人不了解《机器人打擂台》这样的格斗程序或竞技游戏。我不知道机器通过自由对抗提高了其适应复杂环境和事故的能力,使其成为硬件,并且智能水平不断提高到应用程序。

    对于普通人来说,显然有一群机器人刀在砍刀和砍刀,玩罗马斗兽场似乎没有什么区别。很容易产生同情效果并表达对算法的同情-“人们看到我想打败人,而AI肯定更生气了。研究人员因为机器人.所以这一次,制片人的缪斯幕后制作人安格斯德维森(Angus Deveson)受YouTube下载事件的影响。在团结,宣传的视频中:“战斗机器人程序是教育和演示工程的魅力”,目的是让更多的人改变对机器人程序的认识。

    另一个隐忧是“面向AI”的社交焦虑。

    今天,即使它是一个像非洲这样的偏远组织,也恐怕不能否认它。整个社会不仅由人类组成,而且涉及越来越多的机器。从Facebook上的每一个动作到亚马逊盆地猴子的生活环境,智能机器。它正在成为人类与人类,人类与社会之间不可或缺的媒介。

    如今,人们愿意交给AI的事情通常是他们不愿意做或效率低下的事情,例如审核与色情和爆炸有关的Web内容。将来,当所谓的“奇点”,即人工智能的智慧超越人类的智慧时,智能系统将在人类真正出现时帮助人类扮演社会管理者的角色。那么,人类如何重新定位自己的社会地位并做出自己的选择呢?对于这种身份焦虑没有明确的解决方案。

    许多研究人员告诉公众,“必须有一种到达山顶的方法”,坐在车前蒙住眼睛的人与YouTube“ AI主导”事故中的人一样感到恐慌。在这里,也许当我们在追逐AI时,我们需要尽快开始解决两个问题:

    首先,随着人工智能的迅速崛起,大众认知教育和道德建设是否到位?

    第二,如果不是,当算法和用户之间存在冲突时(这几乎是不可避免的),技术公司如何应对变化?

    更令人兴奋的是,请关注Silicon Valley Insight官方网站:

    馆藏报告投诉

    人类有时是理性的。

    为了使机器人能够学习技能,通常让机器人进行各种锻炼和幻想。

    有时很情绪化。

    尽管我们也知道铜臂机器人不会因为被击打而感到疼痛,但是他们仍然希望以更柔和的方式成长。科学家们正在尝试通过观看YouTube视频或在模拟环境中竞争来让他们学习.

    除了同理心外,还有一点智慧可以为下雨做准备。如果有一天机器人醒来并发现人类滥用的这些“黑历史”和“黑化”怎么办?这不是电影中所有机器人革命来的方式.

    但是,如果我们不是为了人类而是为了人工智能而反思自己呢?

    当AI开始管理内容时,它会违反规则并保护同一种吗?

    8月21日,YouTube用户Jamison Go最近收到了官方通知,该平台自动删除了他上传的战斗机器人游戏的视频,因为该算法检测到了折磨动物或强迫动物打斗的内容。当时,乔普机器人正在与另一个机器人作战。

    贾米森高(Jamison Go)在他的Facebook帐户上写道:“今天是悲伤的一天。全世界的机器人爱好者都在痛苦地抱怨。”

    他并不孤单。上赛季格斗机器人大赛的参赛者莎拉波霍雷克(Sarah Pohorec)在YouTube上也遭受了同样的打击,很快引起了全世界与机器人相关的内容频道的关注。诸如BattleBots和RobotWars之类的许多程序问世,并指控YouTube采用了一种新算法,可将机器人战斗检测为虐待动物。

    AI之所以令人困惑,是因为在观看这些视频时,人类几乎不可能将机器人识别为动物。人类和其他生物未出现在图片中。在描述,标签甚至标题中都没有提及已删除的视频。容易被误认为是生命的机器人名称文本。此外,YouTube本身也没有明确禁止机器人战斗视频的禁令。不,第二天,人员小组重新检查并恢复了意外删除的大多数视频。似乎该错误仅由算法本身进行标记和删除。

    尽管事情已经结束,但人工智能已经开始任意制止针对机器人同胞的暴力,这使许多人陷入了“机器唤醒”的阴谋论中。甚至有人开始猜测,YouTube是否已被AI接管,让算法做出所有决定?所谓的“人工审查”是真的吗?

    或者,您永远不知道人工智能何时会找到另一种方法来保护其机器人兄弟。

    AI有爱吗?真的只是凝视片刻

    因此,从技术角度来看,误删视频是错误的,还是AI的自我保护?

    就目前而言,答案当然是前者。因为在理解视频时,AI确实不如每个人想象的那样强大。

    2017年,Google启动了视频智能API,该API可自动识别视频中的对象和内容。当时这是一个里程碑式的应用程序,因为YouTube,Facebook,新浪微博,Fast Hand和其他带有视频产品的平台都受到不良内容的困扰。

    一名泰国男子在Facebook上播放了一个视频,该视频杀害了自己的亲生女儿并自杀。他已经在网站上闲逛了将近24个小时,玩了25万多次。但是,全球近5,000人的人工审核团队仍然无法排名第一。立即在庞大的视频流中找到并删除这些不当内容。

    尽管Facebook曾因传播不良信息而屡遭政府审查,但YouTube也遭受视频审查带来的商业危机的困扰。由于使用了YouTube以前的智能广告推荐算法,沃尔玛,百事可乐和电信运营商Verizon等广告商的广告被分发到宣传仇恨和恐怖主义的视频中……黄金大师迅速用脚投票。这给YouTube和整个Google广告网络带来了压力。

    尽管Google声称这些问题仅影响“非常非常少的”视频,但很明显,只有采取行动才能消除用户和广告商的顾虑。

    因此,当“视频智能”技术发布时,当时的Google云机器学习和人工智能首席科学家李菲菲曾经将其描述为-通过视频识别技术,“我们将开始照亮数字技术中的一种深色物质。天空。”

    现在,已经过去了两年,人工智能真的能掩盖在线内容的黑暗角落吗?结果当然值得认可。例如,随着新算法模型的不断突破,Google的BERT训练方法可以将检查的体力劳动量从12,000小时减少到80小时。

    但是同样,主要内容平台的人工审核团队也在扩大。显然,机器方法的引入并没有帮助平台提高预期的效率。视频理解仍然是高陵之花,尚未从应用程序层面脱颖而出。找到它特别困难吗?

    首先是真实环境中的动作识别。

    使用运动分割数据集(例如UCF101,ActivityNet,DeepMind的Kinetics,Google的AVA数据集等)来训练当前的视频行为识别模型。每个视频片段都包含一个清晰的动作,并标有清晰唯一的标签。但是,真实环境中的视频不是预先分段的,有时包含复杂的场景,例如多人游戏动作,或者包含复杂的情感和意图。这些问题比面部识别更难处理。因此,在实际应用中准确率会降低。

    例如,如果一只狗张开嘴并打开一个人的门,它将被标记为动词“打开”并放置在同一类别中.从这个角度来看,YouTube算法使用机器人战斗作为虐待动物。它似乎符合其目前的“情报”。

    很难对视频中的行为进行分类。如果你添加时间,它会让AI更令人担忧。

    因为可以容易地检测当前技术并对图像中的对象进行分割,所以生物行为的时间边界通常非常不清楚。当一个动作开始和结束时,动作变化太大。等等,很容易使算法“小”。一方面,有必要解决大量连续帧之间的顺序冗余问题,提高检测速度;在提出动态模糊,部分遮挡等情况下,可以准确定位和识别谷歌之前的一种新的Q学习学习自适应交替策略,即在两者之间找到平衡点。速度和准确性。至少从这个“算法意外删除”,这个技术山也要求工程师继续爬上去。

    影响视频理解技术过程的另一个问题是成本困境。与图像相比,训练视频模型需要增加大量的存储和计算资源,并对实时性能有更高的要求。因此,比普通的神经网络更难训练。目前,赛道上的主要参与者是Google,Facebook,百度,头条新闻和其他巨头。在比赛中。如果您希望更多的开发人员为技术进步做出贡献,那么如何减少培训负担就成为一项不容忽视的工作。目前,谷歌和百度已经通过自己的开源平台发布了视频理解算法模型和标记数据集。有关计算资源的一些支持政策也相继出现,它们渴望让开发人员“随波逐流” .

    因此,从技术角度来看,视频理解注定是无数人艰苦努力的积累,并且可以积累激发整个行业的能量。虚构的“ AI机器人控制团队”还有很长的路要走。

    人们准备好与智能机共生吗?

    如果您考虑片刻,可以理解该算法只是无意的。毕竟,即使将来可能成为大佬,它也不具备这种业务能力。如此简单的事情,为什么它能由“节奏大师”引发黑客式的恐慌呢?

    原因之一,恐怕大多数人不了解《机器人打擂台》这样的格斗程序或竞技游戏。我不知道机器通过自由对抗提高了其适应复杂环境和事故的能力,使其成为硬件,并且智能水平不断提高到应用程序。

    对于普通人来说,显然有一群机器人刀在砍刀和砍刀,玩罗马斗兽场似乎没有什么区别。很容易产生同情效果并表达对算法的同情-“人们看到我想打败人,而AI肯定更生气了。研究人员因为机器人.所以这一次,制片人的缪斯幕后制作人安格斯德维森(Angus Deveson)受YouTube下载事件的影响。在团结,宣传的视频中:“战斗机器人程序是教育和演示工程的魅力”,目的是让更多的人改变对机器人程序的认识。

    另一个隐忧是“面向AI”的社交焦虑。

    今天,即使它是一个像非洲这样的偏远组织,也恐怕不能否认它。整个社会不仅由人类组成,而且涉及越来越多的机器。从Facebook上的每一个动作到亚马逊盆地猴子的生活环境,智能机器。它正在成为人类与人类,人类与社会之间不可或缺的媒介。

    如今,人们乐于提供给AI的东西通常是他们不想做的或效率低下的事情,例如查看涉及色情内容的Web内容。将来,当所谓的“奇点”,即人工智能的智慧超越人类的智慧时,当真正的智慧出现时,智能系统将帮助人类承担社会管理者的角色。那时,人类为什么要重新定位于社会?位置,您可以选择自己的位置吗?这种身份焦虑没有明确的解决方案。

    许多研究人员告诉公众,“必须有通往山前的道路”。坐在车里向前看的人和YouTube的“ AI主导”事故一样令人惊讶。在这里,也许当我们在追逐AI时,我们需要尽早开始解决两个问题:

    首先,随着人工智能的迅速崛起,大众认知教育和道德建设是否到位?

    第二,如果不是,当算法和用户之间存在冲突时(这几乎是不可避免的),技术公司如何应对变化?

    更令人兴奋的是,请关注Silicon Valley Insight官方网站:

    两江信息网 版权所有© www.mcm-outlet.com 技术支持:两江信息网 | 网站地图