凤凰网科技讯北京时间3月12日消息,由于担心信息泄露等问题,软银、日立等日本公司已经开始在商业运营中限制ChatGPT等交互人工智能服务使用。
软银上个月就使用ChatGPT等商业应用警告员工:“不要输入公司身份信息或机密数据。”虽然软银已经发布了使用 interactive 人工智能等云服务的指导方针,但鉴于最近聊天机器人越来越受关注,这些规则仍然被反复强调。软银计划制定规则,规定哪些业务可以使用使用这项技术,哪些应用可以使用。
今年3月1日ChatGPT的开发者Open AI发布了一个应用程序接口,企业可以付费将ChatGPT集成到其服务中。Open AI表示,从ChatGPT收集的数据不会用于提高性能,但其网站显示,当这项服务免费使用时,“我们可能使用用您提供的数据改进我们的模型。在这种情况下,输入的信息,如正在开发的产品,可以用来回答其他公司问题。
除了软银之外,日立还将考虑制定新的伦理规则来规范交互人工智能 使用,以及数据是否正确使用。这个公司计划完善了2021年制定的人工智能使用指南。
上个月,富士通向员工通报了与ChatGPT和其他交互式人工智能服务相关的法律和道德问题,包括信息保护。公司成立了一个部门来决定人工智能 使用。2022年2月,富士通成立了治理办公室,处理产品开发和业务中的道德问题人工智能。公司将提醒公众通过该办公室进行互动人工智能的风险。
今年1月,ChatGPT发布仅两个月就拥有了超过1亿的用户。微软上个月在bing搜索中整合ChatGPT,推动这个搜索引擎的日活用户在一个月后首次突破1亿。而且,这项技术在企业运营中的应用有望大幅增加。但是越来越多的人和企业使用 interactive 人工智能也在担忧,因为这项技术可能会传播虚假信息,造成数据泄露,导致一些公司禁止使用这项技术。
瑞穗金融集团、三菱UFJ金融集团和三井住友银行已经禁止公司in operation使用ChatGPT等服务。瑞穗的限制措施将阻止员工从工作终端访问网站,目的是“防止客户和金融交易因员工不当而泄露使用”。IT公司NEC也禁止员工使用ChatGPT。
日本大学国家情报与安全研究所的研究教授Atsuhiro Goto说:“在个人电脑使用上交互人工智能可以很容易,这使得员工不那么谨慎,存在机密数据被意外输入和公司外使用的风险。这些服务应该由专门的内部团队进行测试,以明确可以输入的使用规则和信息。”
松下控股集团公司松下互联在采取措施防止数据泄露等问题后,开始使用互动人工智能文件创建。为了降低数据泄露的风险,公司与该软件的共同开发者微软达成协议,不将内容用于人工智能培训等次要目的。同时也警告员工不要进入个人信息。(作者/萧瑜)
以上就是小编给大家带来的软银、日立等多家日企限制使用ChatGPT 以防泄密的全部内容了,如果对您有帮助,可以关注officeba网站了解后续资讯。
相关文章
同类最新