ylzz总站线路检测网站研讨会
伊格纳西奥·科丰教授和凯瑟琳·斯特兰德堡教授2025 年春季周四下午 4:45-6:45 范德比尔特大厅 208 室
LW.109303 学分
创新政策研讨会每年都会重点讨论ylzz总站线路检测网站在促进创造力、发明和新技术方面的作用的不同方面。今年,我们将讨论数据隐私(或数据保护)和人工智能监管交叉点的理论和实践挑战,并关注当前的全球社会技术形势。
演示者时间表
1 月 23 日星期四 塔莉娅·吉利斯,哥伦比亚法学院法学副教授 “价格歧视”歧视
摘要:信贷价格个性化,即贷方根据个人借款人和贷款特征设定价格,是许多贷款类型的常见做法。关于其危害的传统说法集中在基于风险的定价或根据借款人的信用风险设定价格的方式上,可能会导致少数族裔和女性等受保护群体的差异。本文探讨了一种经常被忽视但可能有害的价格个性化形式,即根据借款人的支付意愿向其收取不同的利率,即价格歧视,并认为这种做法可能会通过强加与信用风险无关的更高成本来剥削弱势借款人,包括少数族裔和妇女等受保护群体,从而导致我所说的“价格歧视”歧视。除了加剧金融差异之外,价格歧视还可能加剧违约风险,特别是大数据和人工智能的使用可能使价格歧视更加普遍。尽管受保护群体存在价格歧视的潜在风险,但现有的歧视ylzz总站线路检测网站框架将价格歧视明确地视为完全允许或完全不允许,但没有提供明确或一致的标准来说明此类做法何时合理。相比之下,我提出了一种基于伤害的方法来解决价格歧视问题,该方法根据定价政策造成的伤害程度来评估定价政策的允许性。这种方法考虑两个关键因素:差异的大小和定价策略的合法性。关注这些方面可以提供更直接的方法来解决价格歧视问题,并符合禁止不公平、欺骗和滥用行为或做法的ylzz总站线路检测网站框架。 1 月 30 日,星期四 伊格纳西奥·科丰,牛津大学法学院人工智能ylzz总站线路检测网站与法规教授; 2025 年春季访问纽约大学法学院 隐私谬误:信息经济中的危害和力量 摘要:我们的隐私受到科技公司的围攻。公司之所以能够做到这一点,是因为我们的ylzz总站线路检测网站建立在过时的理念之上,这些理念使立法者、监管机构和法院陷入有关隐私的错误假设,从而导致我们这一代最紧迫的问题之一得不到有效的保护。伊格纳西奥·科丰 (Ignacio Cofone) 借鉴行为科学、社会学和经济学,挑战了现有ylzz总站线路检测网站和改革提案,并消除了人们对数据驱动交互的长期误解。这一探索让读者全面了解为什么现行ylzz总站线路检测网站和法规无法保护我们免受企业数字伤害,特别是人工智能造成的伤害。 Cofone 提出了更好的应对措施:对企业数据实践的后果承担有意义的责任,这最终需要创建一种承认隐私价值的新型责任。
2 月 6 日星期四 朱莉·科恩,乔治城法学院ylzz总站线路检测网站与技术教授 Mark Claster Mamolen 寡头政治、国家和加密货币
摘要:网络数字环境中权力的理论解释通常不会系统地关注寡头政治现象,即为获取和保护持久的个人优势而极端集中的物质财富。最大的技术平台公司在很大程度上由一小群非常有权势和极其富有的人主导,他们在以符合个人信仰的特定方式构建技术发展方面发挥了独特的影响力,并且现在掌握着前所未有的信息、社会技术和政治权力。因此,在当代政治经济学中对寡头政治,更具体地说,对科技寡头政治进行解释已成为一项相当紧迫的项目。本文承担了该项目。正如我将要展示的那样,科技寡头的力量部分源自与公司治理相关的合法创业精神,部分源自最大的技术平台公司(以及通过它们,寡头领导者)现在履行的职能的基础设施特征。这种对科技寡头的描述对于三大类备受争议的问题具有重要意义。首先,它让人们对民族国家有效管理大型技术平台公司的无能问题有了新的认识。其次,它解释了为什么通过重新编码网络数字环境以实现去中心化(使用加密货币、去中心化社交媒体协议和旨在下放决策权的所谓数字自治组织等手段)来重新平衡规模的努力没有产生也不会产生其支持者所承诺的乌托邦结果。第三,它建议更加仔细地关注一系列寡头项目——从太空殖民的梦想到基因组编辑,再到开发通用人工智能——这些项目让许多观察家感到异想天开。这些项目可能会成功,也可能不会成功,但科技寡头正在通过它们努力瓦解现有的社会和政治组织形式,并定义他们独自控制的人类未来。
2 月 13 日,星期四 詹姆斯·格里梅尔曼,康奈尔理工学院数字与信息法泰斯勒家族教授 文件在计算机中:论版权、记忆和生成人工智能
摘要:《纽约时报》对 OpenAI 和微软提起版权诉讼,指控 OpenAI 的 GPT 模型“记住”了《纽约时报》的文章。其他诉讼也提出了类似的主张。但各方、法院和学者对于什么是记忆、记忆是否发生以及其版权影响存在分歧。不幸的是,这些辩论因对“记忆”本质的深刻模糊而蒙上阴影,导致参与者互相议论。在这篇文章中,我们试图澄清有关记忆的对话及其与版权法的关系。记忆是机器学习研究的一个高度活跃的领域,我们利用这些文献为ylzz总站线路检测网站讨论提供坚实的技术基础。这篇文章的核心是为ylzz总站线路检测网站读者提供记忆的精确定义。当(1)可以从模型重建(2)(3)(4)特定训练数据的大部分的近乎精确的副本时,我们说模型已经“记住”了一段训练数据。我们将记忆与“提取”(其中用户故意使模型生成近乎精确的副本)、“反流”(其中模型生成近乎精确的副本,无论用户的意图如何)和“重建”(其中可以通过任何方式从模型中获得近乎精确的副本,不一定是普通的生成过程)进行区分。这些定义得出了几个重要的结论。首先,并非所有的学习都是记忆:生成人工智能模型所做的大部分工作都涉及从大量训练数据中进行概括,而不仅仅是记住其中的各个部分。其次,记忆是在模型训练时发生的;当模型产生反刍输出时,不会发生这种情况。反流是模型中记忆的症状,而不是其原因。第三,当模型记忆了训练数据时,该模型就是版权法意义上的训练数据的“副本”。第四,模型不像录像机或其他通用复制技术;它比其他的更擅长产生某些类型的输出(可能包括反刍的输出)。第五,记忆不仅仅是“敌对”用户一心提取而造成的现象;它是模型本身潜在的能力。第六,模型记忆的训练数据量是训练过程中所做选择的结果;关于训练哪些数据以及如何训练的不同决定可能会影响模型记忆的内容。第七,系统设计选择在生成时也很重要。记住训练数据的模型是否真的会反刍这些数据取决于整个系统的设计:开发人员可以使用其他护栏来防止提取和反刍。从真正意义上讲,记忆的训练数据位于模型中 - 引用 Zoolander 的话,文件位于计算机中。
3 月 5 日星期三(下午 2:35-4:35 弗曼厅 212 室) 杰里米亚斯·亚当斯-普拉斯,牛津大学法学院莫德林学院法学教授 我们应该禁止自动化决策吗?
我期待着我们在三月初的讨论。在准备过程中,我附上两个文件:
- 工作中监管算法的详细蓝图,由我在牛津博纳韦罗人权研究所的团队发布:我们探索算法管理带来的社会技术挑战,并提出一系列监管对策。我们蓝图的几个要素最近在欧盟的平台工作指令中颁布。
- § 关于人类决策的合法权利的简短说明和精选材料,如 GDPR 第 22 条和平台工作指令中所述。我想知道这样的权利是否应该存在(特别是在高维决策系统的世界中);这个问题将是我演讲的重点。
3 月 6 日,星期四 奥姆里·本-沙哈尔,芝加哥大学法学院 Leo 和 Eileen Herzel 杰出服务法学教授 隐私保护,要付出什么代价? 摘要:《为何恐惧数据》这本书挑战了我们对处理个人数据的技术的看法。让我简要地向您介绍一下所附章节的背景。我认为,我们的数据保护法是找错了方向。他们将数字社会的核心问题诊断为数据隐私,并以隐私保护的形式寻求解决方案。人们被赋予合法权利来决定如何跟踪他们的数据(并且在每个网站上每天都会显示无数关于这些权利的提醒)。该计划的主要缺陷之一是误诊。通过关注私人而不是社会危害——关注个人数据被收集的个人所遭受的潜在入侵,而不是对公共机构的影响——它错过了更大的前景。这种误诊导致了两个显着的扭曲。首先,大数据最令人不安的社会危害——例如算法歧视、虚假内容传播、政治两极分化、公共规范的侵蚀、社交媒体对年轻人的影响或外国政府的有害干预——仍然超出了数据隐私法的管辖范围,因为它们关注的是个人福祉而不是环境。其次,数据分析的许多有希望的好处,例如减少车祸、改善健康治疗和预防令人发指的犯罪,众所周知可以挽救数千人的生命、数百万人的伤害和数万亿美元,但不幸的是受到严厉的数据隐私法的限制。在本书未在此分发的部分中,我开发了一个我所说的“数据污染”的理论框架,该框架将视角从私人伤害转移到社会伤害。我应用该框架来建议各种干预措施,用于控制工业污染和其他外部因素——“数据环境法”。 (我将在研讨会的开场白中简要论证这一论点。)这里的两章构成了本书的第三部分,我在其中研究了数据隐私法的另一个盲区——对数据社会效益的漠视。我展示了数据技术的隐私保护监管如何限制具有巨大社会价值的数据应用。令人惊讶的是,这个问题——隐私保护,要付出什么代价? ——很少有人研究。揭露隐私法被忽视的成本可能会重塑数据保护法的设计。
4 月 3 日,星期四 A.费德·库珀,博士后研究员,微软研究院 谈论人工智能的产生:机器遗忘和人工智能政策的教训
摘要:“机器去学习”——一种从机器学习 (ML) 模型中清除不需要的信息的方法——已越来越多地被用来支持ylzz总站线路检测网站和政策目标。我们阐明了生成人工智能中机器遗忘技术方法之间的根本不匹配,并记录了这些方法在实践中可能产生更广泛影响的愿望。这些愿望数量众多且多种多样,其动机是涉及隐私、版权、安全等问题。例如,遗忘通常被用作从生成人工智能模型的参数中消除目标信息影响的解决方案,例如模型训练数据中包含的特定个人的个人数据或蜘蛛侠的版权表达。忘却也被提出作为一种防止模型在其输出中生成目标类型信息的方法,例如,与特定个人的数据非常相似或反映“蜘蛛侠”概念的生成。这两个目标(有针对性地从模型中删除信息以及有针对性地抑制模型输出中的信息)都提出了各种技术和实质性挑战。我们提供了一个框架来严格思考这些挑战,这使我们能够清楚为什么忘记学习不是限制生成人工智能模型行为以产生更广泛的积极影响的通用解决方案。我们为机器学习专家应如何集中研究以及政策制定者在实践中使用忘却时如何调整对合理最佳努力的期望提供建议。我们的贡献需要机器学习、ylzz总站线路检测网站和政策方面的专业知识。我们希望我们的观众成为所有这些社区的成员。我将在演讲的第一部分介绍生成式人工智能的一些背景知识——包括术语和用于理解生成式人工智能系统复杂性的框架。然后我将讨论与此背景材料相关的关于机器遗忘的论文。本文反映了学术机构、民间社会和行业实验室之间大规模合作的努力。我们的目标是概念清晰,并鼓励机器学习、ylzz总站线路检测网站和政策专家之间进行更深思熟虑的沟通,他们寻求开发和应用符合政策目标的技术方法。
4 月 10 日,星期四 安妮塔·艾伦,宾夕法尼亚大学凯里法学院 Henry R. Silverman 法学教授和哲学教授 隐私真的是一项公民权利吗? (与克里斯托弗·穆哈维)
摘要:六十年前,林登·约翰逊总统签署了 1964 年《民权法案》。旨在遏制联邦计划、公共住宿、住房、就业、教育、投票和贷款方面的歧视和不平等的民权法在该法案颁布之前就遭到了反对,并且在今天仍然如此。尽管如此,美国的大量ylzz总站线路检测网站学者、政策分析师和倡导团体现在都赞成隐私与公民权利之间的重要联系。从历史上看,民权立法的制定是为了打击基于群体的歧视,而当代的个人数据收集、人工智能、算法分析和监视方法加剧了这一问题。无论隐私是一项公民权利、保护公民权利还是受到公民权利的保护,公民权利和隐私权的新颖配对都值得称赞。然而,正如我们所表明的,隐私和公民权利的结合是复杂的、重要的,并且可能令人失望。隐私和公民权利有着令人赞叹的混合历史,但也有矛盾和谴责的伙伴关系。在美国民权法错综复杂的历史中,几乎没有直接支持将隐私或数据保护概念视为一项公民权利。尽管如此,民权法仍然是一个动态的道德、政治和ylzz总站线路检测网站概念,能够适应新司法倡议的要求。考虑到这一点,本文批判性地审视了以隐私权和公民权利配对为前提的ylzz总站线路检测网站干预的影响。我们追溯到很久以前关于公民权利和隐私权的有争议但最重要的观念,揭示了重要的概念和历史问题混淆了最近自由地将隐私权描述为公民权利或保护公民权利或受公民权利保护的权利的趋势。我们的结论是,今天人们可以明智地主张隐私权确实并且应该保护公民权利,例如投票权和自由结社权;公民权利确实而且应该保护隐私权,例如支持亲密生活物质环境的公平住房和就业权;至关重要的是,隐私权是公民权利,这意味着它们是理想的道德和人权,应该成为社会实在法保护的一部分,以促进每个人的繁荣生活和有效公民参与的核心利益。通过阐明我们所说的“隐私与公民权利”运动的远古和近期根源及其实际意义,我们希望使那些将隐私和公民权利结合在一起的人能够更清楚地了解背景、限制和可能的结果。
有关研讨会的问题请发送至妮可·阿兹特。对于那些有兴趣在没有纽约大学 ID 的情况下参加任何讲座的人,如果您计划参加,请发送电子邮件。