因为即使有透明度,数据所有者的信任危机仍然存在于可能以非自愿和知情的方式进行的所有事情上。透明度并不能保证执行者的忠诚,因为一个人可能是透明的和不真诚的。 同样,如果不对个人数据的保护进行适当的影响研究,例如对数据安全和信息安全进行审计以寻找漏洞,那么人们不仅在与隐私相关的权利方面是盲目的,而且在与隐私相关的权利方面也是盲目的。我们数据的网络安全。 在算法系统和人工智使用保密来保护安全)的实现中所谓的“默默无闻的安全”只是一种表象:在无知继续盛行并且没有足以引起争议的利益的情况下,安全得到了保护它。这不是一种真正的安全技术,它实际上是一种在工业规模上
安装的有罪不罚形式。今天,每个人在法律上都 電話號碼列表 安全义务,这源于客观诚信法的一般原则,在这种情况下,这一点将受到质疑。 同样,如果人工智能不是无害的,那么问题应该集中在谁允许它在权利可以不受任何补偿地受到损害的领域前进,让他们对各自的召回负责。 二 并赔偿迄今为止遭受的损失。并且还要预防性和预防性地避免这些损害的加深,特别是因为即使其损害能力的科学不确定性,这也不能阻止
我们采取旨在减少或减轻可能发生的潜在损害的措施。 利用人工智能的数字服务、平台和应用程序的集中化和垄断化给每个人,尤其是虚拟世界中的超脆弱群体带来了更高的壁垒,从而促进了新的不安全感,因此,更多更好的措施和水平保护。透明是不够的,因为它永远不会完全实现,就像不透明问题没有神奇的解决方案一样。诸如“白盒”系统之类的系统承诺完全透明,但最终达不到要求,因为它们只寻求可容忍的透明度,其中并非所有显示的内容都真正有用。可解释性仍然是一个未解决的技术挑战和透明度之间的平衡,信息和解释,