聊天GPT是否存在任何安全问题?

2023年1月,ChatGPT(生成式预训练转换)在推出仅两个月后,成为有史以来增长最快的应用程序,吸引了超过1亿用户。

OpenAI的先进聊天机器人可能重新激发了公众对人工智能的兴趣,但很少有人认真考虑与此产品相关的潜在安全风险。

ChatGPT的基础技术可能与其他聊天机器人相似,但ChatGPT是独一无二的。如果您打算将其用作一种个人助理,那么这是个好消息,但如果您考虑到威胁行为者也在使用它,那就令人担忧了。

网络犯罪分子可以利用ChatGPT编写恶意软件,建立诈骗网站,生成钓鱼邮件,制造假新闻等等。正如Bleeping Computer在分析中所说,ChatGPT可能比好处更大的网络安全风险。

与此同时,有严重担忧认为ChatGPT本身存在一些未解决的漏洞。例如,2023年3月,有报道称一些用户能够查看他人对话的标题。正如The Verge当时报道的那样,OpenAI的首席执行官Sam Altman解释说这是“开源库中的一个错误”导致的问题。

这只强调了限制与ChatGPT分享什么的重要性,因为ChatGPT默认情况下会收集大量数据。科技巨头三星就因为一群员工将ChatGPT作为助理并意外泄露机密信息而这一点付出了代价。

安全性和隐私性并不相同,但它们密切相关并经常交叉。如果ChatGPT是安全威胁,那么它也是对隐私的威胁,反之亦然。但从更实际的角度来看,这意味着什么?ChatGPT的安全和隐私政策是怎样的?

ChatGPT的庞大数据库收集了来自互联网上的数十亿条文字。这个数据库处于不断扩大的状态,因为ChatGPT会储存用户分享的任何信息。美国非营利组织Common Sense对ChatGPT进行了一项隐私评估,给出了61%的评分,并指出该聊天机器人收集个人可识别信息(PII)和其他敏感数据。其中大部分数据被储存或与特定第三方共享。

无论如何,使用ChatGPT时应该小心,特别是如果您将其用于工作或处理敏感信息。作为一个大致的原则,您不应该与机器人分享您不希望公众知道的内容。

人工智能将在某个时候受到监管,但很难想象一个不会带来安全威胁的世界。像所有技术一样,它可以被滥用。

据Malwarebytes称,未来,聊天机器人将成为搜索引擎、语音助手和社交网络的重要组成部分。它们在各个行业都将发挥作用,从医疗保健和教育到金融和娱乐。

这将从根本上改变我们所知的安全。但正如Malwarebytes指出的那样,ChatGPT和类似工具也可以被网络安全专业人员使用,例如寻找软件漏洞或者网络活动中的“可疑模式”。

提高对与人工智能相关的安全风险的认识至关重要,并将有助于确保这些技术在道德方式下开发和使用。无论ChatGPT未来5年还是10年能够做什么,我们只能推测,但我们确切知道的是,人工智能不会消失。

随着更先进的聊天机器人的出现,整个行业将不得不调整和学习如何负责任地使用它们。这包括已经受到人工智能塑造的网络安全行业。提高对与人工智能相关的安全风险的意识至关重要,并将有助于确保这些技术以道德方式开发和使用。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注