一个美颜相机产品,要对拍出来的照片进行审核,如果存在色情,禁止保存并上报。
知道大厂有很多识别 api ,但是把每一张照片都上传检测不符合隐私政策。想用本地大模型检测又考虑到用户手机配置不一定带的动,而且模型更新不及时。
现在的思路是:先在本地过滤一次,风险分高的照片调用在线 api 进行检测,这种方法怎么样?
听一下大家的意见:)

不太能够理解,是有分享功能么?如果是纯本地,我拍什么照片不是我说了算吗?再加审计有侵犯隐私嫌疑吧?

前一段同行的新闻,有小孩用他们的产品拍了自己穿“皇帝的新衣”的照片,还分享出去了,结果照片有他们产品的水印,美颜相机一般都有水印。最重要的是:被小孩家里人知道了,找他们公司讨要说法。

协议加上就能规避了吧!有必要上墙?

手机厂提供的摄像头 责任可比 app 大多了

特色菜刀实名制

脱了裤儿放屁的行为,法律规避而不是要去功能实现,建议问问专业律师。

你没有回答一楼的问题,带分享功能,就在分享前做个过滤进行拦截。如果只是保存本地相册,就不用做过滤

本地模型或者算法不太可行,大部分业务研发也没这个技术水平和精力维护改进算法,我这边类似的功能都是调用三方 api ,省事。

楼主的问题是, 带美颜相机水印分享黄图出去, 会影响美颜相机这个品牌. 存本地也可以通过微信发送本地图片分享. 所以要解决这个问题就是要在打水印的时候做检测

我自己在家拍点好看的照片 你又是本地鉴黄 又是上传 API 谁敢用

这都应该找小孩家里人要说法,你拍这个还分享,影响了我公司的声誉

你再分享那一步鉴黄即可 本地随便拍你没法管 建议直接走三方毕竟不贵

够离谱的, 不管怎样, 要让用户知道你把人家照片传到后台了是不是? "尊敬的用户,我们现在要将该照片上传到云端进行鉴黄.请知悉" "抱歉,您的照片有涉黄风险,已被系统自动删除."

这个是否能通过协议规避,直接告诉他,如果传播黄色图片,自行承担法律责任。。

问公司要说法的多了去了,你本地剑皇人家也要和你讨说法你怎么办?

为啥上传就不符合隐私规范啊?我理解用户拍照了如果是自己想上传,那传上去以后都是符合规范的吧?如果用户不想上传,那你为什么要检测他的照片?他又不会发给别人

这需求够离谱,成本考虑过吗,还是大公司不差钱🐶

这个需求的预算应该加到你司法务部,让这些来找事的打不赢

小孩子拿刀砍死了人,司法机构不去追究父母的管教失职,这父母反而来找刀贩子讨说法?

做好了一定要告知用户你们会看照片

你为什么要为虎作伥呢?你想让📷扫你手机的显示吗,这个软件你自己会用吗?别做恶了

macm3max ,是不是还是你?原本的号改了名变成仿站长的 ,现在新开一个 applem4mini 又来? hesudu.com/t/1028980

“动不了手机厂商还动不了你?”一个相机 APP 还要对用户产生的内容负责?你要说把拍出来的照片存到你的服务器,那么你需要对你服务器上的内容做合规,那还说的过去存在用户本地还要鉴黄可够离谱的已经想到了用户第一次打开软件的情形用户隐私协议:“为了保证内容的合规,我们会对你所拍摄的内容进行识别,请不要拍摄包括但不限于:迪克,浦西,以及军用设施等内容。如果进行传播,我们将依法追究法律责任”

典型的不考虑用户隐私,可以说下产品名称吗,我好规避下哈哈。

以后相机也要用手机号登录 , 人脸识别之后才能用

单反相机

李艳红本红

对于这件事, 宁愿被大厂拿去也不敢被小厂拿去, 所以除了原生相机, 我都不敢安装别的相机相册 app

[不打水印] 不就好了。你见过有人追责手机自带相机 app 的吗。

爱剪辑有话说。。。。

离谱?建议楼上的了解下欧盟的儿童保护法规,不光是照片,连聊天内容都是要监督的 news.ycombinator.com/item?id=37826775

偷用户自拍黄片,还直接剪切走不给用户留一份。真有你的!

任何事情都不用做,防御过了,没事找事。潜在风险低,你做的事收益不高,成本还不少,根本不划算。

欧盟做的就是对的吗?以高光伟正之名进行审查,即便初心是好的,也会因为权力不受约束而造成对个人隐私的忽视,对人权的践踏

本地鉴黄不太难,已有模型True 不打水印False 打水印除了烦心以及名声外,上水印应该没有法律责任吧,又不是后台偷偷拍照好多泄密瓜都是微信聊天,微信负责不?

公司角度规避风险可以理解,但这么做爆出来只会损害更大吧?我能理解分享要加检测但本地检测实在是有点匪夷所思了。

我比较关心这个同行后面败诉了吗

儿童法规确实要这么严厉成年人的世界太可怕了

读取用户照片,谁敢用啊…

感觉应该做个需求替换,比如青少年模式下,非家长同意,不允许分享

可以看下 phi-3 这个模型 手机上可以运行,另外可以选择 配置低于多少 走 api 否则走本地模型呗

保存到相册,然后通过其他社交软件发出去的图片

来要说法是到线下撒泼打滚,老年人谁敢动,这种情况找谁都没用。

非要做的话,做实名认证/年龄限制/家长控制之类的会不会比较好,如果是认证之后,小孩偷摸拍了不雅照片,可以解释是平台已经尽了责,并且有提前告知,但是家长监管不力造成的。不过这种最好还是看法务和老板的意见吧,其他人不够专业也很难拍板,容易出问题。

总结一下既要打水印又不想对内容负责

去问问华为产品,说不定人家已经都用上了。

什么 app 说一下,以后避雷绝不会用了

牛逼,开了眼了。

涉及到图片展示,鉴黄鉴政是基本操作吧,看各位如临大敌,你们用 app 难道都不用头像功能的?或者是发动态,都不带图片的?

#49这有什么关系吗?一个不涉及到上传的应用要在本地给用户做鉴黄,你觉得合理吗?

#31欧盟法规存在说明这个行为可以理解甚至是正确的是吗?完全没理解你想表达什么,如果你说的是上面的内容的话,只能说,欧盟有很多离谱的法律,片面的去照搬不是什么好事。

#34 #51 说明这个需求是普遍性的,或者正在逐渐受到重视。甚至可以说隐私问题在另一个更大的问题面前不值一提,所以导致这个过程对普通人来说是相当不妥。