使用Chat GPT会不会惹上法律麻烦?

Q
图片

2022年11月20日,一个名为Chat GPT的计算机程序首次亮相,并迅速吸引了评论,宣称它是人工智能(AI)的游戏改变者。Chat GPT是一个 “聊天机器人”,它是一个通过将人工智能应用于文本或语音命令来模拟人类对话的程序。

聊天机器人已经存在多年,大多数人在通过打电话给公司或访问其网站寻求客户服务协助时都会体验到它们。数以千计的公司使用人工智能聊天机器人,配备了识别某些单词和回答问题的功能。此外,数百万人熟悉聊天机器人Siri,它是iPhone上的语音助手。在过去几年里,出现了更全面的文本写作聊天机器人,但它们的能力很狭窄。例如,有些人可以写出可接受的营销文案,但当被要求写其他类型的文字时就会失败。

由旧金山研究实验室Open AI建立的Chat GPT没有这种限制。它的范围似乎是无限的。它可以写出可靠的、经过充分研究的文章。它可以写短篇故事。甚至是诗歌。但它能创造出可能也会让你陷入法律纠纷的内容吗?

一个勇敢的新世界?

当Open AI于11月20日发布Chat GPT进行公开测试时,几天内就有一百万人报名参加。每个人,或者说看起来,都惊叹于Chat GPT的技能,它至少可以产生各种可信的文本。它的能力如此令人信服,以至于人们开始预测它将会产生什么影响,目前最直接的是:

◆ 大学作文很快就会被淘汰。

◆ 新闻业濒临灭绝。

◆ 它将破坏对信息系统的信任。

当然,没有人真正知道。但很多人和行业都在考虑如何将Chat GPT以及据说即将出现的更高级、更昂贵的聊天机器人–投入使用。

律师正在对其进行评估

律师,作为一个群体,正在给予人工智能文本生成一些关注。毕竟,他们产生了大量的文本–而且大部分是机械性质的。例如,机器能否像初级律师一样有效地完成文件准备工作?律师们正在测试Chat GPT,发现它至少可以成为一个伟大的助手。有位律师要求Chat GPT为一个杂货店购物应用程序起草一份政策。它写出了“一个非常好的报告”。

12月5日,萨福克大学法律教授安德鲁-帕尔曼(Andrew Perlman)发表了一份14页的模拟美国最高法院简报,这是Chat GPT根据他的提示在一小时内创建的。帕尔曼说他印象深刻,尽管他注意到它的答复 “不完美,有时有问题”。他说,重要的收获是这项技术有可能创造 “一个即将到来的对我们如何获取和创造信息、获得法律和其他服务以及为人们的职业做准备的重新想象”。

日常使用中的法律风险

对于对使用Chat GPT感兴趣的非律师人士来说,一个挥之不去的问题是。让机器为你创建看起来合法的文件,是否存在法律风险?

✔ 答案是肯定的。

人工智能聊天机器人有可能侵犯知识产权,创造诽谤性内容,并违反数据保护法。就其价值而言,Chat GPT对使用它的法律风险有自己的建议。我们问了这个问题。使用Chat GPT的法律风险是什么?在不到30秒的时间里,我们收到了229个字的答复,指出了我们上面提到的三个问题。知识产权、诽谤和数据隐私。它还提供了关于如何避免风险的建议:

✔ 侵犯版权:– 为了避免这种风险,重要的是要确保文本与现有的版权作品没有实质性的相似。

✔ 诽谤:– 为避免这一风险,重要的是确保模型不产生诽谤性内容,并且模型产生的任何内容在出版或分发前都要经过事实核查。

 数据保护:– 为了避免这种风险,重要的是要核实模型是在不包含个人信息的数据集上训练的,还要确保模型产生的任何输出不包含个人信息。

简而言之,虽然ChatGPT可能在做写作,但它仍然需要人类来编辑它所创造的任何内容。

此外,ChatGPT指出,用户需要了解可能影响用户心目中特定类型的应用程序的法律和法规。例如,你的行业可能有特定的法律或法规,如与金融服务或医疗保健有关的法律或法规,你在使用该模型时需要遵守。

这听起来是个好建议。然后,它又是来自一台机器 。我们应该相信它吗?

< 法保网 > 提醒:

很多雇主正在考虑用人工智能,不久的未来,绝大多数的工作将被人工智能取代,工作可以更安全更高效及成本更低。但是同时没有真实人类把关的话,很可能会惹上不知道的法律麻烦。

<法保网> 电话: 626-586-1110WWW.AAALEGAL.COM
732 N Diamond Bar Blvd Suite 210, Diamond Bar, CA 91765

声明:本文章内容和图片均摘录自網絡,版权归原作者所有,因搜索资源不同,也许我们转发的文章不是最原始的版本,如有涉嫌侵权请及时联系我们,我们将及时处理。本文旨在為所涉及的主題而提供參考信息,法保网微信公众号平台或网站對於文章的分享不能被理解為是在提供法律建议、會計或其他任何專業意見。若需要法律意見或其他專業幫助,請咨詢有相關資質的專業人士。