来源:OSCHINA 时间:2023-06-21 10:35:50
(资料图)
据报道,谷歌警告其员工不要使用由其对话式 AI 产品 Bard 生成的代码。
这一政策并不令人惊讶,因为谷歌在更新的隐私声明中也建议用户不要在与 Bard 的对话中包含敏感信息。
其他大公司也类似地警告其员工不要泄露专有文件或代码,并禁止他们使用其他 AI 聊天机器人。然而,谷歌内部的警告引发了对私人公司构建的 AI 工具的可信度的担忧,特别是如果创造者自己不使用它们,那么这些工具可能存在隐私和安全风险。
谷歌告诉路透社,其内部禁令是因为 Bard 可能输出“不希望的代码建议”。问题可能导致程序出现错误或复杂、臃肿的软件,这将花费开发人员更多的时间来修复,而不是完全不使用 AI 来编码。
延伸阅读
Bard 已经可以写代码、解释代码作用和调试错误,支持 20 多种编程语言【焦点热闻】进程模型、线程模型,PostgreSQL 正面临抉择
青年找不到工作,中小企业招不到人,问题到底出在哪?|全球热讯