将代码中的密码等信息发给 chatgpt 等模型安全吗?
比如一些 ssh 连接信息、数据库连接信息、api 密钥信息,为了方便直接写在代码中,在复制进行询问的时候忘记去掉这些信息。
chatgpt 中的聊天记录删除后还会保存在服务器并用于训练吗?
他说不会,但你相信吗?你相信就安全,不相信酒不安全。
有可能,没承诺,不可信
总之你的行为很危险
我不会发给 gpt 。但是 cursor 就没办法了。
b 站陈睿的手机号不就被 gpt 训练进去了么,我一般会顺手删几个字符提交大模型,key 是否正确不影响答案
😅
既然为了方便直接写代码里了,为啥还要纠结大模型供应商那边会怎么处理这种麻烦事呢?
你也写代码,如果是你你怎么做,显然不用问有答案了
我怎么想不出这种问题.jpg
我不会发给 gpt 。但是 cursor 就没办法了
只有 enterprise 用户不会
要看会不会拿用户交流的内容作为训练语料
原则问题。这种东西就不应该发出去,无论对方做出什么承诺。
他们获取这些信息不是能不能的问题,而是想不想的问题,从自己的信息安全出发当然是不发好了,当然如果你相信他们真的不会滥用你的信息就发呗
看隐私安全策略 , 上个月看过 谷歌 微软 亚马逊都是说的 用户数据会用于进行训练。gpt 的 估计也大差不大。
不应该把自己的信息安全建立在对别人的信任上,任何数据一旦交出去了,都是不可控的
密码太多了,顾不过来。
我觉得单纯用来训练其实还行,别胡咧咧发给别人就行
从一开始就不要把涉密信息硬编码到代码里,这跟使用不使用大模型无关,是一种良好的代码安全意识。
反正他说了安全,至于你信不信,我反正信了
我觉得不安全,用户输入的它肯定会拿去继续训练。
除了测试中的占位代码用 123456 这些硬编码进去,生产环境的基本都是从环境变量,手工维护的 yaml 中读
代码里有密码就不安全
难绷,你这算是有安全意识还是没有呢
迫于电视家无法使用之后立刻给家里装了 IPTV ,父亲反应节目少,老人反应看不了之前他看的台(电视家滚动播放电视剧那种频道),本地的 IPTV 节目比较少之前有看到部署小雅可以…
毕业 2 年,虽然不在大厂,但在小厂也算是付出了很多,很幸运,付出还是得到了回报,目前心理上是满足了。不过,也经常觉得疲倦,下班不算晚,一般 7 点半前,也有连续 3 周加班到…
在工作和生活中,总是会有很多人问题我很多技术方面的问题。有一些时候,问问题的和答问题的总是会有一些不爽的事情发生。如下面的几种情况: 比如:“我的电脑老是蓝屏,怎么办?”,通…