返回IT运维网
  • |
  • 文章EID:
  • |
  • 账号:
  • 密码:
警惕利用机器学习实施网络犯罪
2018-01-24 IT运维网 / 转载
      机器学习 被定义为“(计算机)没有明确编程的学习能力”,这对于 信息安全 行业来说是一个巨大进步。这项技术可以帮助安全分析师从恶意软件和日志分析,到尽可能的早期识别和修补漏洞。同时也可以提高终端安全性,自动执行重复性任务,甚至可以降低导致 数据泄露 的攻击的可能性。
 
      人们相信这些智能安全解决方案将会比传统的旧工具快得多,能尽快发现并阻止下一次 WannaCry 攻击。J.Gold Associates总裁兼首席分析师Jack Gold在最近向外媒表示。
 
“这仍然是一个新兴的领域,但显然是未来的走向。 人工智能 和机器学习将大大改变安全性。“
 
      随着数据和应用程序的快速发展,除了使用基于AI的自动化系统来分析网络流量和用户交互,似乎没有其他更好的安全方法了。但问题是,黑客也知道这一点,并正在建立自己的人工智能和机器学习工具来发动攻击。
 
网络犯罪分子如何利用机器学习?
 
      犯罪分子越来越有组织地在 暗网 上提供广泛的服务,而且考虑到机器和深度学习等技术尚未开发的潜力,未来创新速度比安全防御能力更快。McAfee公司首席技术官Steve Grobman表示:
 
“我们必须认识到,尽管机器学习、深度学习和 人工智能 等技术将成为未来网络防御的基石,但我们的对手正在竭尽全力地实施和创新它们。
 
 “ 网络安全 常常是这样,技术放大的人类智能将成为攻击者和防守者之间军备竞赛的胜利因素。”
 
      这自然导致人们担心这是AI与AI,终结者的风格。赛门铁克首席技术官Nick Savvides表示,这是“网络安全领域人工智能与人工智能的第一年”,攻击者能够更有效地探索受损网络,这显然使安全厂商有责任建立更多的自动化和智能解决方案。Darktrace的技术总监戴夫·帕尔默(Dave Palmer)在去年底与这位作家交谈时强调道。
 
 “自主反应是网络安全的未来,
 
 算法可以采取智能和针对性的补救行动,减缓甚至停止正在进行的攻击,同时仍然允许正常的业务活动继续进行。
 
      在这个时候,基于机器学习的攻击在很大程度上仍然是闻所未闻的,但一些技术已经被犯罪集团利用。
 
1.恶意软件免杀能力越来越强
 
      对 网络犯罪 分子来说,恶意软件的创建主要是个手动过程。他们编写脚本来弥补总总不足,推动电脑病毒和木马,rootkit,密码破解和其他工具的协助分发和执行。这在恶意软件攻击中较为常见,但是如果他们能加速这个过程呢?机器学习可以帮助创建 恶意软件 吗?
 
      第一个已知的使用机器学习来创建恶意软件的例子,是在2017年发表的一篇题为“基于GAN的黑盒攻击产生敌手恶意软件实例”的论文中。作者在报告中揭示了他们如何构建一个生成式对抗网络(GAN )的算法,来生成敌对恶意软件样本,这些样本能够绕过基于机器学习的检测系统。
 
      又如,在 DEFCON 2017大会上,安全公司Endgame透露了如何使用Elon Musk的OpenAI框架创建定制的恶意软件,以创建安全引擎无法检测到的恶意软件。Endgame的研究是基于看起来有恶意的二进制文件,并且通过改变一些部分,最终生成的代码在防病毒引擎看来是良性和可信的。请参看 用机器学习创建恶意软件突破防病毒软件, 目前在实验中有16%的成功机率
 
      与此同时,其他研究人员预测,机器学习最终可能会被用来“根据实验室中检测到的内容,随时修改代码”,这是对多态恶意软件的扩展。
 
2.智能僵尸网络可扩展攻击规模
 
      Fortinet认为,2018年将是自学习“蜂巢网络Hivenets”和“机器人集群swarmbots”的一年,实质上标志着“智能”物联网设备可以被攻击者利用,实施大规模攻击易受攻击系统。Fortinet全球安全策略师Derek Manky表示:
 
“他们将能够相互交流,并根据当地情报采取行动。“另外, 僵尸网络 会变得聪明,根据命令行事,而无需人工操纵。
 
因此,蜂巢网络将能够以群集的速度成倍增长,扩大其同时攻击多个受害者的能力,并显着阻碍防守方的缓解和响应动作。“
 
      有趣的是,Manky说这些攻击还没有使用swarm技术,这项可以使这些蜂巢网络Hivenet从他们过去的行为中自我学习。作为人工智能的一个子领域,swarm技术被定义为“分散的、自组织的系统,自然的或人造的集体行为”,现在已经用于无人机和羽翼未丰的机器人设备中。(编者按:虽然是未来派的小说,但有些人可以从“Black Mirror’s Hated in The Nation ”中的swarm技术的犯罪可能性中得出结论,那里有成千上万的自动化蜜蜂,因为监视和物理攻击而受到威胁。)
 
3.先进的鱼叉式网络钓鱼邮件变得更聪明
 
      敌对机器学习的一个更明显的应用,是使用文本到语音转换、语音识别和自然语言处理(NLP)等智能 社会工程 算法。毕竟,通过经常性的神经网络,你已经可以形成这样的软件写作风格,所以理论上 钓鱼邮件 可以变得更复杂和可信。
 
      特别是,机器学习可以促进高级鱼叉式 网络钓鱼 电子邮件针对高调的数字,同时整个过程自动化。系统可以接受真正的电子邮件培训,并学习如何使看起来和阅读的东西令人信服。
 
      在McAfee Labs对2017年的预测中,该公司表示,犯罪分子将越来越多地利用机器学习来分析大量被盗记录,从而识别潜在的受害者,并能够针对这些个人,构建非常有效地、内容详尽的电子邮件。
 
      此外,在2016年美国黑帽会议上,John Seymour和Philip Tully发表了一篇名为“社会工程数据科学的武器化:Twitter上的自动化E2E鱼叉式网络钓鱼”的论文,其中介绍了一种经常性的神经网络,学习如何向特定用户发布网络钓鱼信息。在这篇论文中,他们提出经过 鱼叉式攻击 钓鱼 渗透测试 数据训练的SNAP_R神经网络,是动态的从目标用户时间线帖子(以及他们发送或者关注的用户)中获取主题,以便更容易触发潜在受害者点击链接。
 
      随后的测试表明,这个系统非常有效。在涉及90个用户的测试中,该框架的成功率在30%到60%之间变化,对手动钓鱼和群发钓鱼的结果有相当大的改进。
 
4.威胁情报可能被“提高噪声基线”技术糊弄
 
      在机器学习方面, 威胁情报 可以说是一种混合的祝福。一方面,普遍接受的是,在误报时代,机器学习系统将有助于分析人员识别来自多个系统的真实威胁。Recorded Future首席技术官兼联合创始人StaffanTruvé在最近的一份白皮书中表示:
 
  “应用机器学习在威胁情报领域有两个显着的增长。
 
  “首先,处理和构建如此庞大的数据,包括对其中复杂关系的分析,几乎不可能单靠人力来解决。用更有能力的人来训练机器,意味着你可以更有效的武装起来,比以往任何时候都更有能力揭示和回应新出现的威胁。”
 
               “其次是自动化 - 让机器承担人类可以毫无问题地完成的任务,并利用这项技术扩大到更大的数量处理量。”
 
      然而,也有这样的信念,即犯罪分子会再次适应这些警报。迈克菲的Grobman之前曾指出过一种被称为“提高噪声基线”的技术。黑客会利用这种技术来轰击环境,从而对常见的机器学习模型产生大量的误报。一旦目标重新校准其系统以滤除误报,攻击者就可以发起真正的攻击,可以通过机器学习系统获得。(小编,嗯?这是个挺有意思的想法,对于机器自学习及安全基线的设备有影响)
 
5.更有效的进行未授权访问
 
      2012年,研究人员Claudia Cruz,Fernando Uceda和Leobardo Reyes 发表了一个机器学习安全攻击的早期例子。他们使用支持向量机(SVM)来打破在reCAPTCHA图像上运行的系统,精度为82%。所有验证码机制随后得到改进,只有研究人员再次深入学习才能打破验证码。2016年,发表了一篇文章,详细介绍了如何使用深度学习以92%的准确率打破简单验证码。
 
      另外,去年 BlackHat 的“我是机器人”研究揭示了研究人员如何打破最新的语义图像CAPTCHA,并比较了各种机器学习算法。该文件承诺打破Google的reCAPTCHA准确率为98%。2017年10月, unCAPTCHA和AIBot成功突破google recapcha验证码, 5秒多突破450个成功率85%
 
6.对机器学习引擎的输入数据投毒
 
      一个更加简单而有效的技术是,用于检测恶意软件的机器学习引擎可能被毒害,使得它不起作用,就像过去犯罪分子对反病毒引擎所做的一样。这听起来很简单,机器学习模型从输入数据中学习,如果数据池中毒,则输出也中毒。来自纽约大学的研究人员展示了卷积 神经网络 (CNN)如何能够通过CNN如Google、微软和AWS产生这些虚假(但受控制的)结果。 
 
文章来源:csoonline 
转自:http://toutiao.secjia.com/hacker-ml

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

相关评论 [查看所有评论]
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
心情:
  • 支持
  • 高兴
  • 枪稿
  • 不解
  • 搞笑
  • 愤怒
  • 谎言
账号: 密码:
验证码 看不清?点击更换
相关阅读