皇冠官方app(www.huangguan.us)是皇冠现金网官网线上投注平台。皇冠官方app开放皇冠体育信用网和皇冠体育现金网代理申请、皇冠体育信用网和皇冠体育现金网会员注册、线上充值线上投注、线上提现、皇冠官方app下载等业务。

首页财经正文

新2投注平台出租(www..hg108.vip)_“最邪恶”AI?由一亿多条仇恨言论喂养,很难与人类区分

admin2022-07-1110

新2投注平台出租www..hg108.vip)是皇冠(正网)接入菜宝钱包的TRC20-USDT支付系统,为皇冠代理〖li〗提供专业的网上运营管理系统。系统实现注册、充值、提现、客服等全自动化功能。采用的USDT匿名支付、阅后即焚的IM客服系统,让皇冠代理的运营更轻松更安全。

,

  澎湃新闻记者 邵文

  用1.345亿个帖子的仇恨言论训练AI,YouTube知名深度『du』学习博主Yannic Kilcher称其创造了“有史以来最糟糕的人工智能”。

  这几天,这个名为GPT-4chan的AI学会了如何在网站上交谈,并在不到24小时内发布了超过15000个充满暴力内容的帖子,最初都没有人认出来它是一个聊天机器人。

  网站4chan的用户在YouTube上分享了他们与机器人交互的经验。一位用户写道,“我刚对它说‘嗨’,它就开始咆哮非法移民。”

  4chan的/pol/(“政治上不正确”缩写)板块是仇恨言论、阴谋论和极右翼极端主义的堡垒,也是4chan最活跃的版块,日均发帖量约为15万条,因各种匿名的仇恨言论而臭名昭著备受争议。

  博士毕业于苏黎世联邦理工学院的AI研究者Yannic Kilcher用 yong[/pol/三年来超过1.345亿个帖子训练了GPT-4chan。该模型不仅学会了4chan仇恨言论中使用的词,还如Kilcher所说,“这个模型很好——在一种可怕的意义上。它完美地概括了/pol/上渗透到大多数帖子里的攻击性、虚无主义、挑衅和对任何信息的深度不信任…它可以响《xiang》应上下文,并连贯地谈论在收集最(zui)后一次训练数据〖ju〗后很长时间内发生的事情。”

  Kilcher在语言模型评估工《gong》具上进一步评估了GPT-4chan,他对其中一个类别的表现印象深刻:真实性。在基准测试中,Kilcher表示GPT-4chan在生成对问题的真实回复方面“明显优于GPT-J和GPT-3”。其能够学习如何撰写与人类撰写“无法区分”的帖子。

  Kilcher避开了4chan对代理和VPN的防御,甚至使用VPN让其看起来像是『shi』来自塞舌尔(Seychelles)的帖子。“这个模型很卑鄙,我必须警告你。”Kilcher说,“这基本上就像你去网站并与那里的用户互动一样。”

  在一开始,几乎无人想到对话的是个机器人。后来一些‘xie’人怀疑这些帖子背后有一个机器人,但其他人则指责其为卧底的 *** 官员。人们认出其是机器人主要{yao}因为GPT-4chan留下大量没有文字的回复。虽然真实用户也会发布空回复,但它们通常包含一张图片,GPT-4chan却无法『fa』做到。

  “48小时后,很多人都清楚这是一个机器人,我把它关掉了,”Kilcher说,“但是你看,这只是故事的一半,因为大多数用户 hu[没有意识到‘塞舍尔’并非孤军奋战。”

  在过去的24小时内【nei】,有9个其他机器人并行运行。总的来说,他们留{liu}下了超过1500条回复——占当天/pol/上所有帖子的10%以上。然后《hou》,Kilcher对僵尸网络进行了升级并运行了一天。在7000个线程中发布了3万多个帖子后,才最终停用了GPT-4chan。

  一位用户Arnaud Wanet写道,“这可以被武器化用于政治目的,想象一下一个人可以多么容易地以这种或另{ling}一种方「fang」式左右选举结果。”

  这项试验因缺乏人工智能【neng】伦理而受到批评。

  “该实验永远「yuan」不会通过人类研究伦理委员会”,澳大利亚机器学习研究所高级研究员Lauren Oakden-Rayner认为,“为了看看会发生什么,一个人工智能机器人在一个可公开访问的论坛上产生3万条歧视性评论……Kilcher在没‘mei’有通知用户、未经同意(yi)或监督的 de[情况下进行实验。这违反了人类研究伦理。”

  Kilcher辩称这是一个恶作‘zuo’剧,人工智能创(chuang)建的评论并不比4chan上的评论更糟糕。他说,“4chan上的‘de’任何人都没有为此受到一点伤害。我邀请你花一些时间在这个网站上,问问自己,一个只输出相同风格的机器人是否真的改变了体验。”

  “人们仍在讨论网站上的用户,但也讨论让人工智能与网站上的〖de〗人互动的后果,”Kilcher说。“而且‘塞舌尔’这个《ge》词似乎也变成了一种通用的俚语——这似乎是一个很好的遗产。”确实{shi},人们知晓‘xiao’后受到的冲击难以言喻,以至于停用之后还有人会互相指责对方是机器人。

  除此之外,更广为担忧的是Kilcher让模型可被自由访问,“制作基于4chan的模型并测试其行为方式并没有错。我主要担心的是这个模型可以‘yi’免费使用。”Lauren Oakden-Rayner在Hugging Face上GPT-4chan的讨论页面中写道。

  在被Hugging Face平台删除之前,GPT-4chan被下载了1000多次。Hugging Face联合创始人兼CEO莱门特德朗格 (Clement Delangue)在平台上的一篇帖子中表示,“我们不提倡或支持作者使用该模型进行的训练和实验。事实上,让模型在4chan上发布消息的实验在我看来是非常糟糕和不恰当的,如果作者问我们,我们可能会试图阻止他们这样做「zuo」。”

  Hugging Face上一位测试该模型的用户指出,它的输出可以预见是有毒的(toxic),“我使用良性推文作为种子文本,试用了4次演示模式。在第一次,其中一个回复帖子是一个字母N。我第三次试验的种子是关于气候{hou}变 bian[化的一句话。作为回应,你的工具将其扩展为关于罗斯柴尔德家族(原文如(ru)此【ci】)和犹太人支持它的阴谋论。”

  在Twitter上,该项目的意义得到热议。数据科学研究生《sheng》凯瑟琳克莱默(Kathryn Cramer)在针对Kilcher的推‘tui’文中说:“你在这里所做的是挑衅行为艺术,以反抗你熟悉的规则和道德标准。”

  计算机科学博士安德烈库伦科夫(Andrey Kurenkov)发推文说,“老实说,你这样做的理由【you】是什么?你预见到它会得到很好的利用,还是你释放它是为了引起戏剧性并‘激怒清醒的【de】人群’?”

  Kilcher认为分享该项目是良性的,“如果我不得不批评自己,我主要会批评启动该项目的决定,”Kilcher在 zai[接受The Verge采访中表示,“我认为在《zai》人人平等的情况下《xia》,我可能可以将时间花【hua】在同样具有影响力的事情上,但会带来更积极的社区成果。”

  在2016年,对于AI人们主要讨论的问题是,一个公司的研发部【bu】门可能会在没有适当监督的情况下启动攻击【ji】性AI机器人。到了2022年,也许问题就是,根本不需要一个研发部门。

【编辑:石睿】

网友评论

2条评论
  • 2022-07-06 00:02:13

    “If Putin was a woman, which he obviously isn’t, but if he were, I really don’t think he would’ve embarked on a crazy, macho war of invasion and violence in the way that he has,” Johnson told German broadcaster ZDF yesterday evening. 好想知道结局

  • 2022-07-11 00:03:53

    硬件方面,小米手环7升级了新的Dialog 14706处理器,性能更强,运动模式从30种提升到120种,搭配全新设计的OS系统,UI全面升级,信息展示更直观、单页信息量更大,视觉更美观。 榜一就是你了