罪犯如何使用生成人工智能

有一个新报告犯罪分子如何使用生成性人工智能工具:

关键要点:

  • 由于网络犯罪的不断演变,犯罪分子对人工智能技术的采用率落后于行业同行。
  • 与去年相比,犯罪分子似乎放弃了训练真正的犯罪大语言模型(LLM)的任何尝试。相反,他们正在破解现有的漏洞。
  • 我们终于看到了真正的犯罪深度伪造服务的出现,其中一些服务绕过了金融服务中使用的用户验证。

发布于2024年5月9日12:05 PM10条评论

评论

过去的回声2024年5月9日下午1:03

@布鲁斯·施耐尔
@所有

摘自摘录

“我们终于看到了真正的犯罪深度伪造服务的出现,其中一些服务绕过了金融服务中使用的用户验证。”

当你考虑到最近另一份关于MSM的报告时,也许并不奇怪,据说目前最赚钱的犯罪是欺诈。

尽管其他数字表示,其他类型的传统犯罪,如入室行窃,并未减少。

目前可以说,与其他形式的犯罪相比,网络犯罪对罪犯来说更安全,因此,他们开始使用人工智能作为犯罪工具也就不足为奇了。

我怀疑可能阻碍事情发展的是,人工智能系统并非那么容易访问,也不是从犯罪角度安全访问,尽管这会改变。

此外,创建您自己的AI LLM系统并不便宜,并且具有高电力和冷却需求。奶奶的后卧室或类似的房间还没有。特别是当你考虑到高电力和水与“非法种植草本植物”有关时,当局已经在密切关注。

这实际上把LLM变成了当局寻找…

但我确实希望,如果AI炒作泡沫不破裂,这种情况会发生改变。

我想我们应该考虑的一个问题是,

人工智能要多久才能参加Zoom会议?

因为随着金融犯罪的增加,银行将转向交互式在线“生命和身份证明”。

回声2024年5月9日下午1:20

改进他们的社会工程技巧。事实证明,LLM特别适合于社会工程领域,它们能够提供各种功能。犯罪分子利用这种技术制作诈骗脚本,并扩大网络钓鱼活动的规模。好处包括传达关键要素的能力,如紧迫感和用不同语言翻译文本的能力。虽然看似简单,但后者已被证明是犯罪世界最具破坏性的特征之一,开辟了一些犯罪集团以前因语言障碍而无法进入的新市场。

并且:

为了规避这一点,犯罪分子现在主动提出拿走被盗的身份证并创建一个深度伪造的图像,以使系统相信客户的合法性。

恼人但有限。目前的技术水平对于低带宽自动化和低任务导向的工作来说是令人信服的。我确信有一天会发生更糟糕的情况,但我们还没有做到。

并且:

当深度假冒攻击目标是接近被模仿对象的人时,犯罪分子就会遇到问题,因为深度假冒视频还没有达到可以欺骗人们对被模仿对象有深入了解的程度。因此,犯罪分子希望对个人进行更有针对性的攻击,比如在虚拟绑架骗局中,他们更喜欢音频深度伪造。这些都是更便宜的创建,需要较少的数据从主题,并产生更令人信服的结果。通常,只要几秒钟的主题声音就足够了,而且这种类型的音频通常可以在社交媒体上公开获得。

我可以健谈,也可以有一些表面上看起来毫无意义的行为,但却能从别人那里获得更多信息。讨论倾斜度、语调、情绪微表情可能意味着某种东西,而非言语对等物、时机和回应。还有他们不说不做的事情。我也有一些技巧,比如忙着或把罐子扔在路上,或者在我争取时间时表现出同意他们的行为,他们免费给我更多信息,或者只是等着看其他人会发生什么,作为反馈/评估循环的一部分。有时候我只是我自己。真的很难说。

我从不喜欢急事。一个人越紧急,我就越不喜欢。他们到底在追求什么,他们是怎么对我撒谎的,还有什么我不知道的?

从经验和其他来源的反馈中,我知道我在重要的时候做出了正确的决定。我并不是每次都做对,但你能感觉到它。它是非线性的。你只能从经验中得到这一点。我对“关”的东西的容忍度很低。

让我们看看“人工智能”在同人会议上能走多远。

蜘蛛对苍蝇说:“欢迎来到我的网。”。

如果还有别的事,我会报警。

没有名字2024年5月9日下午4:20

Isabelle Bousquette报道:

2023年,金融科技领域的深度伪造事件比前一年增加了700%

尤扎。它们还会增加吗?我想不起来这些实体是否有报告要求?

看起来至少有一家银行正在更改其身份验证协议以设置在线帐户。用户必须使用银行的应用程序进行自拍。该应用程序指示用户从不同的方向看问题,据说这可能是通用人工智能深度假冒技术无法预料的。

金融机构将承担欺诈成本,对吗?这将是一个值得关注的新发展空间。

https://www.wsj.com/articles/depfakes-are-coming-for-the-financial-sector-0c72d1e5#

带着帽子的老鼠2024年5月9日下午5:28

@非姓名
我也很担心这个。然而,我对银行没有多少信心。我相当肯定,尽管人工智能语音克隆,许多人仍在使用语音ID。

无关,我想知道国家支持的黑客使用人工智能的情况。与罪犯不同,国家支持的黑客可能有资源创建自己的LLM,但我想越狱仍然会方便得多。不幸的是,可能无法收集有关这方面的数据。

Peed Off先生2024年5月9日下午5:39

那些不识字的暴徒可能会发现学习曲线和硬件要求遥不可及,尽管我不会低估更有动力的暴徒克服逆境的能力。我怀疑基于云的人工智能提供商是否有能力或动机阻止甚至阻止欺诈行为。

回声2024年5月9日下午6:27

我质疑基于云的人工智能提供商是否有能力或动机防止甚至阻止欺诈行为。

如果他们知道也不在乎,我不会感到惊讶。另请参阅烟草、气候变化、脱欧、社交媒体等。人工智能需要像生物危害一样进行调节。人们需要再次发现实体零售银行。

夫人不使用网上银行。如果我想,我需要访问我的银行,以便激活它。我不着急。

鲍勃·帕多克2024年5月10日上午8:26

@过去的回声

“人工智能要多久才能参加Zoom会议?”

像Other dot ai这样的地方已经可以了。

乔恩什么都不知道2024年5月10日上午11:33

@全部

人工智能系统完全依赖于清洁输入的新来源。一旦AI技术人员删除了所有维基、所有图书馆书籍和包含历史信息的电子内容,如果没有新的干净数据管道,他们就死在了水中。

为了避免模型崩溃(1),系统需要新的数据源。

目前在获取干净数据方面存在分歧的是Stack Overflow,该公司正在将其网站上多年来的信息交换货币化,并将内容销售给OpenAI。(2) 人们并不热衷于将个人知识转移到OpenAI。与人打交道不同于在图书馆浏览书籍。

随着新清洁投入来源的减少,人工智能模型崩溃的可能性增加。

没有太多的问题,它会崩溃,但多久。

人工智能系统使用递归将数据重新输入到模型中。如果你有大量干净的数据,模型会变得更加健壮,也就是说会扩大。关键是干净的数据。

如果你只在以前的人工智能输出上训练人工智能,也就是合成数据/HAIL,模型会很快崩溃。

为了让人工智能系统持续下去,它们需要干净的数据,而不是太多的合成数据。

防止模型崩溃所需的数量各不相同。

这有点像做晚饭。

如果你从新鲜的食材开始,晚餐的选择是最好和最美味的。(清除数据)

你可以用剩菜做很多事。(合成数据/HAIL)

如果你添加更多的新鲜食材,你可以从中获得另一顿晚餐。(清除数据+合成数据)这会产生另一组剩余数据(合成数据组合)

随着时间的推移,剩余物(综合合成数据)的价值会下降。

当剩饭剩菜撞到垃圾桶时,模型就崩溃了。

虽然将干净的数据输入人工智能系统可以提高模型的规模,但这并不能阻止模型制造虚假的HAIL响应。将HAIL响应递归反馈到模型中会导致AI系统缩小规模。

===

1)

ht tps://ww w.theregister.com/2024/05/09/ai_model_collapse网站

  • 用更多人工智能训练人工智能:模型崩溃是不可避免的吗?

AI模型崩溃/合成数据[HAIL]/递归

2)

ht tps://w网址:www.theregister.com/2024/05/09/stack_overflow_banning_users_who

  • 堆栈溢出(Stack Overflow)只会禁止那些不希望自己的建议用于训练AI的人

零研究员2024年5月14日3:28 AM

总是有更多的数据。大量的档案被定期添加。

https://fortune.com/2024/05/07/microsoft-ai-for-spies-divorced-from-internet-top-secret-intelligence网站/

基思B2024年5月15日下午3:18

他们已经在使用人工智能来模拟社交媒体帖子中的声音,以执行“嘿,奶奶,我是孙子。我在欧洲监狱里,我马上就需要钱”的骗局。

在我听到的故事中,有一个人意识到那不是她的孙子,因为他叫她“奶奶”,通常他都叫她“布比”。

留下评论

登录

允许的HTML•<a href=“URL”>•<em><cite><i>•<strong><b>•<sub><sup>•<ul><ol><li>•<blockquote><pre>额外降价语法通过https://michelf.ca/projects/php-markdown/extral/

Joe MacInnis拍摄的Bruce Schneier的侧栏照片。