除了经由过程禁止输出“吉卜力风格”等内容来防止直接侵权外,Protective AI据说还经由练习,即使经由过程间接提示也能避免模仿。其实现方法是:主动向模型投喂源素材(此处以吉卜力数据为例),并指导模型生成偏离该风格的输出。

此外,该技巧还试图让创作者和版权方在作品被用于生成AI输出时获得补偿。索尼此前在音乐范畴曾提到过类似测验测验,例如实验性地应用“反进修算法来衡量每个练习样本对生成输出的供献”。Protective AI似乎也将以类似方法处理视频输出,实现对版权方的溯源与补偿。
今朝Protective AI仍处于研发阶段,索尼尚未在公司内部正式采取该技巧。
发表评论 取消回复