视觉检测领先者
全国咨询热线:13812953225

分秒必争:一场阻挠“机器学习最坏状况”的比赛

发布时间:2023-08-01 12:13:20 人气: 来源:bob平台官网入口

  神译局是36氪旗下编译团队,重视科技、商业、职场、日子等范畴,要点介绍国外的新技能、新观念、新风向。

  编者按:跟着人工智能的不断开展,它也为一些不合法活动供给了更多的便当。这篇文章来自编译,作者在文中引证一篇研讨陈述,强调了人工智能生成的儿童猥亵图画在暗网上的出现。该陈述正告称,虽然现在由人工智能生成的儿童猥亵图画仅占不到 1%,但生成式人工智能东西的快速开展或许会导致这种传神的图画数量显着添加,因而,这需求人工智能公司、交际媒体渠道和立法部分的大力协作,从法令法规和技能的开发与运用等方面遏止这一开展趋势。

  生成式人工智能东西的鼓起给予了儿童猥亵者更便当的制造和传达传神儿童猥亵内容的途径,这现已成为一个直接的要挟。

  开源人工智能模型缺少必要的内容维护办法,导致儿童猥亵图画数量的激增,凸显监管和法规需更更严厉的束缚。

  人工智能公司、交际媒体渠道和立法部分之间有必要加强协作,开发更难破解的数字水印技能,清晰各方职责,避免人工智能生成的儿童猥亵等内容的问题继续恶化。

  戴夫·威尔纳(Dave Willner)一向都在互联网开展的前沿调查和了解其间最糟糕的内容是怎么演化的。

  自 2008 年起,他就一向在 Facebook 作业。那个时候,各大交际媒体公司都还在“摸着石头过河”,测验去拟定各自的方针规矩。十多年前,作为公司内容方针的负责人,威尔纳编写了 Facebook 社区运营的第一版官方规范。那份规范实际上是只要一页纸的一份非正式清单,其间大致制止了“希特勒和裸体”等内容。现在,这份清单现已开展成横跨 Meta 公司旗下一切渠道的翔实规范,其间包括各种谩骂言辞、犯罪行为和其他令人作呕的内容。

  因而,上一年美国人工智能草创公司 OpenAI 预备推出 Dall-E 时(一种能够让任何人只需输入几个提示词即可当即生成图画的东西),该公司聘请了威尔纳担任其信赖与安全负责人。开端,威尔纳面临的是筛查一切被 Dall-E 标示为或许违规的图画和提示词,并提出相应的战略来避免目的违规的人成功。

  就像多年来儿童猥亵者运用 Facebook 和其他首要科技渠道传达儿童猥亵图画相同,他们现在也在企图运用 Dall-E 来制造全新的此类图画。威尔纳说:“我并不惊奇人们会企图这样做。不过值得一提的是,OpenAI 公司的人也没有感到惊奇。”

  虽然近来在关于生成式人工智能的潜在危险方面有许多假定性的评论,但有关专家标明,儿童猥亵者现已在开端运用这些新式的人工智能东西,而这种直接的要挟值得整个职业的全力重视。

  据研讨机构斯坦福互联网调查站(Stanford Internet Observatory)和致力于开发有助于维护儿童免受猥亵的技能的非营利安排 Thorn 最新发布的一篇研讨陈述,研讨人员发现,自上一年 8 月以来,在暗网上撒播的具有高度实在感的人工智能生成的儿童猥亵资料数量有所添加,虽然增幅不大,但也不能忽视这一问题的严重性。

  Thorn 安排的研讨人员指出,相关资料数量的添加在很大程度上都体现在运用实在受害者的容颜,并将其经过新的姿态以可视化办法出现出来,让他们遭受新的、越来越残暴的性暴力方式。研讨人员发现,大多数相似图画并非由 Dall-E 生成,而是由开发和发布过程中几乎没有任何维护办法的开源东西生成的。

  Thorn 和斯坦福互联网调查站的研讨人员在陈述中还指出,在一个已知的儿童猥亵者集体样本中,由人工智能生成且看起来十分逼线%。但考虑到这些生成式人工智能东西的开发速度,研讨人员猜测这个数字只会不断增加。

  戴维·泰尔(David Thiel)是斯坦福互联网调查站的首席技能专家。他与 Thorn 的数据科学总监丽贝卡·波特诺夫(Rebecca Portnoff)以及研讨主管梅丽莎·斯特罗贝尔(Melissa Stroebel)一起撰写了该篇研讨陈述。泰尔称,“用不了一年时刻,这个范畴就会面临十分严峻的问题。这关于我所能想到的机器学习来说,肯定是最糟糕的状况。”

  波特诺夫在机器学习和儿童安全方面现已作业了10多年。在她看来,OpenAI 公司现已在布局考虑这个问题,这也标明这个范畴至少在学习曲线上比交际媒体巨子在前期开展阶段快得多。

  2003 年,美国国会经过了一项制止“核算机生成的儿童色情制品”的法令,这是稀有的对未来进行防备的国会举动。但是,其时制造这种图画不只十分贵重,并且技能还十分杂乱,因而这项法令的履行并没有遭到广泛重视。

  这些年来,虽然制造这些图画的本钱和杂乱程度一向在稳步下降,但在上一年 8 月,状况发生了改变。一家坐落伦敦的机器学习公司 Stability AI 开发了一款名为 Stable Diffusion 的免费开源文字到图画生成器,这导致了制造这些图画的门槛大大下降。

  在 Stable Diffusion 的开端版别中,该模型对其能够生成的图画内容几乎没有任何约束,包括包括裸体的图画内容。该公司首席履行官埃马德·莫斯塔克(Emad Mostaque)上一年秋季在承受《》(The New York Times)采访时标明:“咱们信任咱们,咱们信任整个用户集体。”

  Stability AI 公司传达总监莫泰兹·比沙拉(Motez Bishara)在一份声明中标明,该公司制止将其技能用于“不合法或不道德”等不妥用处的行为,包括制造儿童猥亵资料。比沙拉称,“咱们激烈支撑法令部分冲击那些乱用他们的产品进行不合法或歹意活动的集体。”

  因为该模型是开源的,开发人员能够在自己的核算机上下载并修正代码,以此来完结特定的使命,包括生成传神的内容。Thorn 和斯坦福互联网调查站的研讨人员在陈述中指出,猥亵者能够自行修正模型,使其能够生成触及儿童的性暗示图画。这些研讨人员在陈述中还展现了一个经过马赛克处理的版别,演示了怎么经过修正一个由人工智能生成的成年女人图画,直到它看起来像奥黛丽·赫本(Audrey Hepburn)儿时的形象,然后创立出一个虚伪的儿童色情图画。

  Stability AI 公司后来发布了企图屏蔽其所称“不安全和不适当内容”的过滤器。该技能后续推出的新版别中所运用的数据集,都过滤了被以为“不适协作业场合”(NFSW)的图画内容。但是,泰尔标明,人们仍在运用旧的模型生成新模型制止生成的图画。

  与 Stable Diffusion 不同的是,Dall-E 并非开源东西,只能经过 OpenAI 自己的界面拜访。该模型在开发过程中也设置了更多的防范办法,以制止乃至创立成人裸体图画。威尔纳标明:“这些模型自身倾向于避免与用户进行性方面的对话。这种安排首要是出于对某些较为漆黑的性论题的慎重考虑。”

  该公司还为 Dall-E 供给了提示词,并添加了防护办法,以避免用户运用某些词语或词组。但是,威尔纳标明,猥亵者依然在企图经过研讨人员所称的“视觉近义词”来破解体系,在描绘他们想要制造的图画过程中,选用创造性的词汇表达办法来躲避防护办法。

  “假如你从模型中删去对血液的认知,它依然知道水是什么姿态,也知道赤色是什么色彩。在性内容方面相同存在这个问题。”威尔纳弥补说,“即便从模型中删去了与性相关的特定内容,它依然或许生成具有性暗示的内容。”

  Thorn 具有一个名为 Safer 的东西,这个字面意思为“更安全”的东西能够扫描图片以查找儿童猥亵等内容,并协助企业向国家失踪和被剥削儿童中心(National Center forMissing and Exploited Children)陈述此类内容。据称,该中心下设一个联邦指定的信息交流中心,能够同享有关疑似儿童猥亵的相关信息。

  OpenAI 公司也在运用 Safer 东西来扫描人们在 DALL-E 修改东西中上传的内容。虽然这关于获取实在儿童图画十分有协助,但威尔纳标明,即便是最先进的主动化东西也或许难以精确辨认由 人工智能生成的图画。

  这引发了儿童安全专家日益忧虑的一个新问题:人工智能不只能够用于创立实在儿童的新图画,还能够制造出底子不存在的触及儿童的显露图画。

  这种内容自身便是不合法的,需求进行上报。但这种或许性也导致人们忧虑,联邦告发中心或许会因充满着虚伪图画而愈加不堪重负,这会使辨认实在受害者的作业变得愈加杂乱。仅在上一年,该中心的网络告发专线 万份告发。

  “假如咱们收到这些告发,咱们能够辨别出来吗?”国家失踪和被剥削儿童中心的总法令顾问约塔·苏拉斯(Yiota Souras)问道。“这些图画会被符号出来吗?或许能够与实在儿童的图画区别开来?”

  Thorn 和斯坦福互联网调查站的研讨人员以为,至少部分处理方案不只需求 OpenAI 和 Stability AI 等人工智能公司的协助,并且还需求运转即时通讯运用程序或交际媒体渠道的公司的协助。例如,上一年国家失踪和被剥削儿童中心网络告发专线 万份告发中,提交最多的是 Meta 公司。

  致力于冲击网络儿童猥亵内容的职业安排“科技公司联盟”(Tech Coalition)现已开发了一个分类体系,用于依据所触及的受害者的显着年纪和所描绘行为的性质对涉嫌儿童猥亵资料进行分类。但是,Thorn 和斯坦福互联网调查站的研讨人员以为,这些分类应该进一步扩展,以反映图画是否由核算机生成。这将有助于更好地辨认由人工智能生成的虚伪图画,以便更有效地冲击儿童猥亵和虚伪图画的传达。

  Meta 全球安全负责人安蒂戈涅·戴维斯(Antigone Davis)在向《》宣布的一份声明中标明:“咱们正在有意识地采纳根据依据的办法来处理由人工智能生成的内容,例如确认何时包括辨认信息作用最佳,以及怎么传达该信息。”戴维斯标明,该公司将与国家失踪和被剥削儿童中心联手协作,以确认最佳的应对战略。

  除了交际媒体渠道的职责外,研讨人员还以为人工智能公司也能够采纳更多举动。具体来说,它们能够经过练习其模型来避免其生成儿童裸体图画,并在这些图画在互联网上传达时清晰标识它们是由人工智能生成的。这意味着需求选用更难破解的数字水印技能,而不是直接沿袭 Stable AI 或 OpenAI 等公司现有的水印方案。

  跟着议员们开端拟定规范人工智能技能的法规,有关专家标明,有必要强制运用某种方式的水印或来历追寻技能,这不只对冲击优待儿童资料,也对遏止虚伪信息至关重要。

  “你的体现只会与最低规范相等,这便是为什么你需求监管体系。”加州大学伯克利分校(University of California, Berkeley)数字取证教授哈尼·法里德(Hany Farid)标明。

  法里德牵头开发了 PhotoDNA 东西,这是微软在 2009 年推出的东西,许多科技公司现在仍在运用它来主动查找和屏蔽已知的儿童猥亵图画。但是,法里德以为,科技巨子在该技能开发后的运用过慢,这使得儿童猥亵资料在互联网上揭露传达了多年。

  他正在与多家科技公司协作,为人工智能生成的图画拟定新的技能规范。Stability AI 公司是方案遵从这一规范的公司之一。

  另一个悬而未决的问题是,法院将怎么处理申述那些运用人工智能生成优待儿童内容的制造者,以及人工智能公司需求承当什么法令职责。虽然早在 20 年前就已拟定出制止“核算机生成的儿童色情制品”的法令,但该法从未在法庭上被查验。2002 年,美国最高法院以为由,推翻了前期企图制止所谓“虚拟儿童色情制品”的法令。

  欧盟委员会(European Commission)、白宫(White House)和美国参议院司法委员会(U.S. Senate Judiciary Committee)的成员现已收到了关于 Thorn 和斯坦福互联网调查站那份陈述的简报。泰尔标明,在人工智能技能进一步开展并支撑全动态视频之前,企业和立法者需求敏捷找到这些问题的答案,这是至关重要的。“咱们有必要赶快处理这些问题。”他说。

  Thorn 首席履行官朱莉·科杜阿(Julie Cordua)标明,研讨人员的发现应该被视为一种正告,一起也是机会。与交际媒体渠道多年后才意识到其渠道使儿童猥亵者肆无忌惮不同的是,科杜阿以为,由人工智能生成的儿童猥亵问题还没有失控,仍有时刻来避免它恶化。

在线留言

看不清?点击更换看不清?