人脸识别和人工智能伦理

  • 我们对人脸识别的担忧就像我们对数据库的担忧一样——我们担心如果它们包含了错误的数据会发生什么,我们担心坏人会拿这些数据做什么

  • 我们很容易把它指向中国,但在很大的灰色地带,我们对“坏”到底意味着什么,以及我们担心的程度还没有明确的共识,因为这是不同的,而不是仅仅因为它是新的和不熟悉的

  • 像大量机器学习一样,人脸识别迅速成为许多人可以和将用于建造各种各样的商品技术。'AI伦理的董事会可以走一定的方法,但不能成为一个完整的解决方案,并将其必威足球规定(需要多种形式)进一步。但中国公司拥有自己的道德委员会,已经出口产品。


必威足球回到20世纪70年代和20世纪80年代初,科技产业创造了一种变革的新技术,使各国政府和公司能够追踪,分析和理解我们所有人的前所未有的能力。关系数据库意味着对于在大规模的小规模上始终理论上始终可能的第一次发生的事情。必威足球人们担心这个,很多,写了关于它的书,很多。

具体来说,我们担心两种问题:

  • 我们担心这些数据库将包含不良数据或糟糕的假设,特别是他们可能无意中,无意识地编码了我们社会的现有偏见和偏见,并将其固定到机器中。我们担心的人会搞砸了。

  • 而且,我们担心人们故意建立并使用这些系统做坏事

也就是说,如果这些系统不起作用,我们担心会发生什么,如果他们担心他们做的工作会发生什么。

关于人工智能(更确切地说,是机器学习),尤其是人脸识别,我们现在的讨论基本相同,因为机器学习,人脸识别才变得实用起来。我们在担心同样的事情——我们担心如果行不通会发生什么,我们担心如果行得通会发生什么。我认为,我们也在努力弄清楚这其中有多少是一个新问题,有多少是我们担心的,以及我们为什么担心。

第一,“当人们把事情搞砸的时候”。

当好人使用坏数据

人们在使用数据库时会犯错误。我们可能都听过一个老笑话的变体:税务局把你的名字拼错了,改名字比改正名字容易。还有一个问题,你和一个通缉犯的名字一样,却被警察不停地拦下,或者你和一个恐怖分子嫌疑人的名字一样,却发现自己上了禁飞名单,甚至更糟。与此同时,今年春天,一位安全研究员声称,他在海关执照上注册了“NULL”,现在却收到了数百张随机的违规停车罚单。

这些类型的故事抓住了三个不同的问题:

  • 系统可能有坏数据(名称拼错了)……

  • 或者在处理数据的方式上有错误或错误的假设(它不能把' Null '作为名字,或者' Scunthorpe '触发淫秽过滤器)

  • 而且,该系统被没有培训,流程,制度结构或个人赋权的人使用,以承认这种错误并适当地反应。

当然,所有的官僚程序都受制于这一套问题,可以追溯到几千年前,那时还没有人制造出第一张穿孔卡片。数据库为我们提供了一种在不同规模上表达它的新方式必威足球,现在机器学习也一样。但是ML带来了各种各样的搞砸的方式,这些都是它固有的工作方式。必威足球

所以:假设你想要一个可以识别猫照片的软件系统。旧的方法是构建逻必威足球辑步骤——你会可以检测边缘的东西,东西可以检测尖耳朵,一只眼睛探测器,一条腿计数器等等…你会得到几百步所有螺栓连接在一起,它不会工作。实际上,这就像试图制造一匹机械马——理论上完全可行,但实际操作起来却太复杂了。有一大堆这样的计算机科学问题——对我们来说很容易,但对我们来说很难或不可能解释我们是怎么做的。机器学习将这些问题从逻辑问题转变为统计问题。与其写下你如何识别一张X的照片,你不如拿出10万个X的例子和10万个非X的例子,然后使用统计引擎生成(“训练”)一个模型,这个模型可以在给定的确定性程度上告诉你区别。然后你给它一张照片,它会告诉你它是否匹配X或不匹配,以及匹配程度。它不是告诉计算机规则,而是根据数据和你给出的答案(‘这是X,那不是X)来计算规则。

这对于一整类的问题而奇妙,包括人脸识别,但它引入了两个错误的错误。

首先,在您的X和非X的例子中,训练数据中到底有什么?你确定吗?这些例子里还有什么?

我最喜欢出现问题的最受欢迎的例子来自一个识别皮肤照片中癌症的项目。显而易见的问题是,您可能在不同的色调中可能没有适当的皮肤样本。But another problem that can arise is that dermatologists tend to put rulers in the photo of cancer, for scale - so if all the examples of ‘cancer’ have a ruler and all the examples of ‘not-cancer’ do not, that might be a lot more statistically prominent than those small blemishes. You inadvertently built a ruler-recogniser instead of a cancer-recogniser.

这里了解的结构的事情是系统对所需的了解 - 它没有皮肤或癌症的概念或颜色或性别或人员甚至图像。它不知道这些东西不仅仅是洗衣机知道什么是衣服。它只是执行数据集的统计比较。那么,再次 - 你的数据集是什么?它是如何选择的?什么可能在它中,你没有注意到 - 即使你正在寻找?如何以误导方式表示不同的人群?必威足球你的数据可能与人无关,没有预测值,但影响结果?是你的“健康”照片在白炽灯下拍摄,所有的'不健康'照片在LED灯下拍摄的照片?您可能无法告诉,但计算机将使用它作为信号。

其次,还有一个更微妙的问题——“匹配”是什么意思?我们所熟悉的计算机和数据库一般都会给出“是/不是”的答案。这个车牌是报失的吗?这张信用卡有效吗?它有可用的余额吗?这张机票预订确认了吗?这个客户号有多少订单?但是机器学习并没有给出是或否的答案。它给出了“可能”、“可能不”和“可能”的答案。它给概率。 So, if your user interface presents a ‘probably’ as a ‘yes’, this can create problems.

您可以在最近的宣传特技中看到这两个问题都在一起举起:在犯罪分子的Mugshots(和只要犯罪分子),然后拍摄一个诚实和体面的人(通常是一个政治家),并询问是否有任何比赛,小心使用相当低的置信水平,系统说是的!- 这位政治家对银行抢劫犯是“匹配”。

对于计算机科学家来说,这可能看起来像是蓄意破坏——你故意使用一个倾斜的数据集,故意将用例的准确性设置得太低,然后(错误地)将概率结果表示为“是的,我们有匹配”。你可以用小猫的照片,而不是罪犯的照片,或者卷心菜的照片来做同样的练习——如果你告诉计算机“在这些卷心菜的照片中找到最接近的一张脸的照片”,它会说“嗯,这个卷心菜是最接近的。”“你把系统设置成失败的样子——就像开车撞到墙上,然后说‘看!坠毁!“好像你证明了什么似的。

但当然,你当然证明了一些东西 - 你证明了汽车可以崩溃。而且这些练习有价值,因为人们听到“人工智能”并认为它是,智慧 - 这是'AI'和'数学'和电脑和“数学不能偏见”。数学不能偏见,但数据可以是。实际上有很多值来证明,这项技术可以搞砸,就像可以搞砸的数据库一样,它们将是。人们将以这种方式建立面部识别系统,不明白为什么他们不会产生可靠的结果,然后将这些产品销售给小型警察部门,并说'这是AI必威足球 - 它永远不会出错'。

这些问题是机器学习的基础,需要重申的是,它们与数据无关人们。你可以建立一个能够识别燃气轮机即将发生故障的系统,而不会意识到你的样本数据与西门子传感器的遥测技术存在偏差。同样,机器学习也非常强大——它真的可以识别出计算机以前从未识别过的东西,拥有大量极其有价值的用例。但是,正如我们必须理解数据库是非常有用的,但也可能是“错误的”,我们也必须理解它是如何工作的,既要尽量避免搞砸,也要确保人们理解计算机仍然可能是错误的。机器学习在某些事情上比人做得好得多,就像狗在找毒品方面比人做得好得多一样,但我们不会仅凭狗的证据就给某人定罪。狗比任何机器学习都要聪明得多。

当坏人使用好的数据时

到目前为止,我一直在谈论当人脸识别系统(或任何机器学习系统)给出不准确的结果时会发生什么,但一个同等且相反的问题是,人们可以建立一个给出准确结果的系统,然后把这些结果用于我们不喜欢的事情。人脸的使用是一个很容易关注的问题——你的脸可以在你不知情的情况下从街对面被看到,而且你无法改变它。

每个我们不想要的例子都是中国在新疆省使用各种监测技术,包括人脸识别,作为其在那里努力穆吉勒穆斯林人口的系统镇压的一部分。确实,A.中国研究论文明确旨在发现Uyghur面孔最近引起了很多人的注意。但是当然,这些技术实际上已经在整个中国部署,即使不是总是在相同的规模上,它们被用于各种各样的事情,并不是所有的事情都是如此必威足球很明显令人担忧。

您可以在此中获得一个有用的窗口来自Megvii的600页IPO招股说明书该片于今年8月上映。旷视科技是向中国政府各部门提供所谓“智慧城市物联网”的大型公司之一;该公司表示,其客户是106个中国城市,高于2016年的30个,拥有1500名研发人员,2019年上半年该业务收入为1亿美元。中国已经把panopticons变成了一门生意。

Megvii并不谈谈街上的默米尔斯。它谈论“公共安全”和执法。但它也提到,例如:

  • 警方能够辨认出一位迷路的、困惑的、忘记了姓名和地址的老人

  • 在大型办公楼自动调度电梯

  • 检查补贴房的租户是否非法转租他们的公寓

  • 建筑物白名单允许进入幼儿园

  • 银行识别收银台书桌的客户。

今天的数据库就像数据库一样,面部识别将用于社会许多部分中的各种各样的东西,包括许多没有今天的东西就像一个人脸识别的用例。其中一些会成为问题,但不是全部。哪一个?我们怎么知道呢?

今天,人们在思考这方面存在一些明显的框架:

  • 是由州或私营公司完成的吗?

  • 它是主动的还是被动的——你是故意使用它(比如在接待处注册),还是你一进门就使用它,甚至是在街上走过大厅时使用它?

  • 如果它是被动的,是被披露的吗?如果它有效,你有选择吗?

  • 它是连接到真实世界的身份,还是仅仅作为一个匿名ID使用(例如,生成通过公交系统的流量统计数据)?

  • 这样做是为了给我一些实用价值,还是纯粹为了别人的利益?

  • 当然,您可以获得真正关于数据库的问题,而不是面对识别本身:您在哪里存储,谁可以访问,我可以要求看到它或要求您删除它吗?

因此,我认为大多数人对海关的机器舒适,在海关检查你的脸上护照上的照片和文件上的照片,并记录。我们可能对我们的银行使用面部识别可能会感到满意。这是明确的,它有一个明确的原因,它正在由一个组织完成,你认识到有效的理由这样做。同样,我们接受我们的手机公司知道我们所在的位置,我们的银行知道我们有多少钱,因为这就是他们的工作方式。我们可能不会接受它的其他方式 - 我的手机公司不会了解我的薪水。必威足球不同的实体有不同的东西。我与孩子的生活相信超市,但我不会与流媒体音乐服务相信。

在光谱的另一端,想象一个房地产开发商,使用面部识别标签和跟踪每个人都走购物街,他们进入的商店,他们看什么产品,挑选和试穿,然后链接到销售点和信用卡。我想大多数人会对此感到很不舒服——它是被动的,它是由私人公司做的,你甚至可能不知道它发生了,而且它不是为了你的利益。这是对你隐私的非自愿侵犯。他们没有得到许可。

但另一方面,如果它是匿名的——如果它从来没有明确地与信用卡和一个人的名字联系在一起,而只是用来分析脚步声,这种跟踪就可以了吗?如果它用衣服和步态来追踪商场里的人,而不是人脸呢?如果公共交通部门使用匿名面孔来获取系统中典型旅程的数据会怎样?这与零售商使用信用卡(哪些可以在购买时链接到你的身份)和途机门与门票和智能卡(通常是)有关?也许这不太清楚我们批准的东西。

零售商追踪他们的顾客确实让很多人原则上不高兴,即使没有任何面孔参与其中(即使他们已经这样做了几十年),但一个非常明显的政府、公共安全案例——识别通缉罪犯又如何呢?

我们(我认为)都对大头照和“通缉”海报的想法感到满意。我们知道警察把他们安置在办公室,也许在他们巡逻车的仪表盘上也有一些。与此同时,我们今天在执法部门(或只是过路费)广泛部署了车牌识别摄像头。但是,如果一辆警车装有一组摄像头,可以将100码内的每个人的脸扫描到全国未执行搜查令数据库中,会怎么样呢?如果安珀警报系统让城市里的每辆自动驾驶汽车扫描过往的车辆和过往的面孔,寻找目标呢?(假设在所有这些案件中,我们真的在寻找真正的罪犯,而不是抗议者或维族人。)我不确定在这个问题上会有多少共识。人们相信警察吗?

说,你可能会说,它不会成为好警察扫描的面对所有的所有时间(想象一下,如果纽约警察局扫描每个面进入每一个在纽约地铁站),但这是好的扫描历史画面为一个特定的脸。必威足球听起来不一样,但是为什么呢?什么是可重复的逻辑链?这让我想起了美国法院的判决限制了警察在嫌疑人车上安装GPS追踪器的方式-他们必须用传统的方式手动跟着它们走。必威足球是我们不想要它,还是我们不想它太容易,或太自动化?在极端情况下,美国枪支管理局(US firearms agency)就是这样禁止存放枪支记录在可搜索的数据库中 - 一切都必须是模拟的,并用手搜索。关于自动化本身的东西,我们并不总是喜欢 - 当大规模地在大规模上始终可能的东西时,在大规模的情况下实际上可能。必威足球

不过,数据库的部分经验是,有些事情会让人不舒服只要因为它们是新的,不熟悉的,面部识别也是一样的。对于任何给定的用例,矛盾心理的一部分是新颖性,这可能会解决和重新解决:

  • 这可能是一件我们根本不喜欢的全新且糟糕的事情

  • 或者,它可能是新的,我们决定我们不在乎

  • 我们可能会决定这只是一个旧事物的新表达,我们不担心

  • 可能是这确实是在之前完成的,但是以某种方式与你的脸做不同的事情使它不同,或者只是让我们更加意识到它完全已经完成了。

所有这些讨论都是关于感知,文化和政治,而不是技术,而我们大多数人都可以在极端的同意中,中间有一个非常大的灰色区域,合理的人会不同意。这可能在不同的地方也可能是不同的 - 这是一个很好的说明是强制性国家身份证的态度。英国没有一个,并且一直拒绝拥有一个,大多数人认为这个想法是作为公民自必威足球由的基本违约。法国,'Liberté'的土地拥有它们而且不用担心(但法国人口普查没有收集种族,因为纳粹在职业期间将其围绕犹太人。美国没有他们理论上,但可以说是可以介绍它们在后门。尽管国家对国家的历史原因非常强烈地反对其他侵犯,但德国拥有它们。

这里没有任何正确答案,也没有办法通过任何分析过程得到正确答案——这是一个社会、文化和政治问题,有着各种各样必威足球不可预测的结果。美国禁止枪支数据库,然而,美国也有一家名为“PatronScan“这扫描了驾驶执照,反对私人黑名单,以38,000人(另一个数据库)共用在600多个酒吧和Nighclubs上。同时,许多州DMV向私人公司出售个人信息。想象一下1980年坐下来建立一个决策矩阵来预测。

道德规范

科技行业对这些问题最明显的最初反应是,在各个公司设立各种类型的道德委员会,并在整个行业制定行为准则,供工程师、研究人员和公司个人签署。这两种想法:

  • 承诺不要用“坏数据”(在最广泛的意义上)

  • 承诺不制造“坏事”,在道德委员会的情况下,有一个决定什么算作坏事的程序。

这是必要的,但我认为不够。

首先,在我看来,承诺您不会构建一个产生不准确结果的产品,就像给自己写一个不会搞砸的承诺。没有人计划搞砸了。你可以把你要尽量避免的事情列出来,你会在其中一些事情上有所进步,但这不能阻止它的发生。你也无法阻止其他人这样做。

回到数据库,我的朋友,史蒂夫切尼,最近在博客中写道关于被警察停下来,因为赫兹错误地报告了他被盗的雇用汽车。这不是机器学习旋转 - 这是40岁的旧技术的旋转。我们一直在谈论如何在数据库中犯错误,而不是大多数数据库工程师都活着,但它仍然发生。这里重要的是,将史蒂夫拉过来的警察了解数据库的概念是错误的,并且具有常识 - 和赋权 - 检查。

这回到了我前面提到的面部识别特技 - 你可以保证不会犯错误,但宣传错误的想法可能更有价值 - 你不能只是认为电脑必须是正确的。我们应该向工程师向工程师宣传,这是一个拓展的“现货扒手面临的系统”,但我们还应该向该警察宣传,并向律师和法官宣传。毕竟,这些错误将在每台计算机系统中进行发生,只要人类允许触及它们。

Second, it’s all well and good for people at any given company to decide that a particular use of face recognition (or any kind of machine learning project) is evil, and that they won’t build it, but ‘evil’ is often a matter of opinion, and as I’ve discussed above there are many cases where reasonable people will disagree about whether we want something to exist or not. Megvii has an ethics board too, and that ethics board has signed off on ‘smart city IoT’.

此外,作为Megvii等许多其他例子表明,这项技术越来越一种商品。最前沿的工作仍然仅限于相对较少的公司和机构,但“面部认可”现在可以自由地提供给任何软件公司建立。你自己可以决定你不想构建x或y,但这真的没有轴承是否建立。因此,是预防的目标你的公司创造这个,还是阻止这个东西被创造和使用?

这当然让我们想到了另一种反应,那就是推动从单个城市到欧盟的各级政府对人脸识别进行约束性监管。这些实体当然有强迫的力量——他们仍然不能阻止你搞砸了,但他们可以授权审计流程捕获错误和补救措施或处罚,如果他们发生的,(例如)要求正确的看到或删除你的数据,和他们也可以禁止或控制特定的用例。

我认为,这里的挑战在于确定正确的抽象级别。当伯尼•麦道夫(Bernie Madoff)的庞氏骗局崩溃时,我们并没有说Excel需要更严格的监管,也没有说他的房东应该发现他在做什么——干预的正确层面是在金融服务业内部。同样,我们监管金融服务,但抵押贷款、信用卡、股票市场和零售银行的资本要求都是完全分开处理的。法律,试图规范使用你的脸来解锁你的手机,或把自己变成一只小猫,还有一个系统在超市发现出版的杂志,并确定在警察可以使用相机和如何存储数据,不太可能是非常有效的。

最后,在中国政府和美国宪法方面举办了这种谈话的趋势。但美国境外没有人知道或关心美国宪法所说的,而Megvii已经向中国15个国家的客户提供了“智能城市物联网”产品。The really interesting question here, which I think goes far beyond face recognition to many other parts of the the internet, is the degree to which on one hand what one might call the ‘EU Model’ of privacy and regulation of tech spreads, and indeed (as with GDPR) is imposed on US companies, and on the other the degree to which the Chinese model spreads to places that find it more appealing than either the EU or the US models.

规定,人工智能 betway足球