(资料图片仅供参考)
不可否认,月活用户数量超过1亿人次的ChatGPT,有着不可估量的巨大价值。但在其技术前景、商业模式都还方兴未艾的时刻,围绕自身的“犯罪方案”以及所造成的负面影响却已真实发生。由新技术衍生的网络信息安全以及违法犯罪等方面的风险,成了摆在全球AI科学家、企业以及国家面前的严肃问题。第一批因ChatGPT坐牢的人,或许已经在路上。1.ChatGPT的地下生意在众多的犯罪方法中,利用ChatGPT进行诈骗只能算入门级的手段,比如用AI来谈一场“虚假恋爱”。据外国网络安全平台GBHackers报道,由于具备强大的工作生产效率,ChatGPT深深地吸引了网络诈骗犯。借助ChatGPT,诈骗者可以在几秒钟内生成一条完整的诈骗“套路”:从自我介绍、聊天内容到一份精心制作的“情书”,ChatGPT都可以一键生成,甚至还可以通过录入目标对象的特征,对诈骗话术进行个性化定制。在编写情书后,利用生成式AI,黑客能快速创建一个“虚拟角色”,并通过电子邮件引诱受害者“坠入爱河”。然后搭配由ChatGPT辅助编写的收款程序或银行卡信息获取连接,诈骗受害人钱财。其实,这种诈骗方式并不新鲜。但问题在于,在如今人工智能技术的支撑下,人们开始难以分辨屏幕的另一端到底是人还是机器。为测试人们是否真的会对AI版“情话”产生信赖,2月13日,全球最大安全技术公司迈克菲(McAfee)用AI生成过一封情书,并将它发送给全球5000位用户。结果显示,在已知该情书有可能是由人工智能生成之后,依旧有33%的受访者愿意相信这些情话出自人类手笔,而坚信情书由AI创作的受访者占比仅为31%,其余36%的参与者则表示无法区分情书的创作者到底是人还是机器。在AI加持下,骗子们正变得比以往任何时候都更容易欺骗毫无戒心的受害者。用AI写情书还只是外国黑客们“牛刀小试”的成果。据IT安全公司Check Point披露,更厉害的黑客已经开始利用ChatGPT批量生成勒索软件与恶意代码。此前,Check Point威胁情报组经理Sergey Shykevich表示,最近几周,他们已经得到了一些网络犯罪分子利用ChatGPT实施犯罪的证据。据Shykevich介绍,这些犯罪者正在绕开OpenAI的安全限制,能自由地操纵ChatGPT去编写犯罪程序。为了方便在GPT模型上搭载更多的应用程序,OpenAI为开发人员预留了应用程序编程接口。而黑客就是利用这些接口,把GPT模型引入到一系列外部应用。比如,黑客将OpenAI的GPT-3模型集成到即时通讯软件Telegram的通道中。凭借这种操作,黑客们就可以通过Telegram“隔空”使用ChatGPT,以此绕开安全监管。目前,突破ChatGPT安全限制的应用已在美国暗网内公开出售,应用服务购买者按使用次数向黑客付费。收费不算太贵:前20次对话免费体验,此后每向ChatGPT进行100次对话,就需支付5.5美元(折合人民币37.6元)。能绕过Open AI安全措施,用ChatGPT进行“自由问答”的软件已在暗网上售卖。围绕类似的安全突破方法,一系列犯罪方法论已经成型,比如借助ChatGPT创建信息窃取程序。此前,一个名为《ChatGPT——恶意软件的好处》的帖子曾在国外暗网黑客论坛上传播。该贴子的创建者分享了自己利用ChatGPT建立窃取程序代码的全过程,按照操作流程,ChatGPT在较短时间内即可生成一款可扒取、压缩、传输12类文件的程序。除了信息窃取,ChatGPT还能帮助黑客生成攻击软件和勒索病毒。据英国《金融时报》报道,近日,一款由ChatGPT辅助生成的SIM交换攻击脚本开始在网络上传播。SIM交换攻击即身份盗窃攻击,原理是突破移动电话公司对电话号码的控制权,将电话号码从原持有者的SIM卡交换到由攻击者控制的SIM卡中,从而控制受害者的移动电话。勒索病毒则是通过ChatGPT来生成多层加密软件,以此对受害者的计算机进行远程锁定,通过向受害人收取被锁计算机的“赎金”来获益。
一款由ChatGPT生成的网络钓鱼邮件正在流传
《金融时报》对此评价,ChatGPT目前虽然只是内容生成工具,并未直接参与犯罪,但这标志人们开始使用人工智能来入侵他人,技术水平更低的犯罪者将因此获得更强大的犯罪手段。ChatGPT就像潘多拉魔盒,一旦被打开,想要关上就没那么容易了。
关键词: chatgpt
Copyright 2015-2022 南极地质网版权所有 备案号:粤ICP备2022077823号-13 联系邮箱: 317 493 128@qq.com