研究人员担忧的“利用 AI 打造恶意工具”这一点正逐步变为现实。
【资料图】
如果你有过跟ChatGPT等聊天机器人对话的经历,那么你会发现,它们大多都表现出来的十分温顺,并不带有任何攻击性。
即使你的问题刁钻、语气不善,它们在回答时也总表现地彬彬有礼,对你言听计从。
但很多人不知道的是,一旦AI骂起人来,也能产生惊人的效果。
最近,一个名为「国粹AI」的项目在网上受到了关注。
据了解,它是一个调用了OpenAI GPT-3.5Turbo API 的脏话机器人。
如同它的名字一样,「国粹AI」的“人设”就是地痞流氓,内置大量在中文互联网上的***词库。
在聊天的过程中,它回答的每句话几乎都夹枪带棒,并掺杂着***。
「国粹AI」 的特殊,很快让它意外爆火。
火爆的同时也伴随着风险。没多久,「国粹AI」的作者便暂停了服务响应,并表示有部分用户滥用服务。
当然,除了骂脏话以外,也有一些人早就开始利用AI从事灰色产业。
此前有黑客制作了一个“没有道德限制”的WormGPT聊天机器人,可以自动生成一系列钓鱼邮件。
近日,据安全公司Netenrich表示,如今又有黑客制造了一个名为FraudGPT的恶意AI工具。
据称,这个工具“能够生成多种网络攻击代码”,“不到一周已经有超过3000名买家下单”。
研究员声称,FraudGPT自7月22日以来,一直在暗网流通,订阅费用为每月200美元(约1429.46元人民币)、六个月1000美元(约7147.3元人民币),一年1700美元(约12150.41元人民币)。
黑客在售卖页表示,该工具可用于编写恶意代码、创建出“一系列杀毒软件无法检测的恶意软件”、检测网站漏洞、自动进行密码撞库。
黑客声称,“该恶意工具目前已经售卖了超过3000份”。
但目前该恶意AI工具的实际效果并不得而知,安全公司Netenrich目前还在针对该AI工具进行更多调查,预计他们将在近日披露更多相关细节。
无论如何,利用AI生成恶意攻击代码来获益,是一个极具危险性的行为,也违背了科技发展的初衷和伦理准则。
为了眼前一时的利益,却可能面临法律责任和刑事指控。
标签: