AI正以相当显眼得方式重塑着我(wǒ)们的(de)世界,数据驱动着全球数字生态系(xì)统,AI技(jì)术则揭示(shì)了数据中的模式。智能(néng)手机,智能家(jiā)居以及智慧城市(shì)在(zài)影响着(zhe)我们生活(huó)和交互方式,AI系统越(yuè)来越多用于(yú)公司招聘、医疗诊断和司法裁决。这是一个(gè)乌托邦时代还是反乌托邦时(shí)代,全看你怎么看。
AI的潜在威胁早已被人说烂了,杀人机(jī)器人(rén)以及大(dà)规模失业,甚至还有(yǒu)人(rén)担(dān)心人类灭绝。而(ér)乐观主(zhǔ)义者预测AI到2030年将会为全球经(jīng)济(jì)带(dài)来15万亿美元(yuán)的价值。
我们(men)当然需要考虑(lǜ)AI对我们社会所带来(lái)的影响。其中一个引人注目(mù)的(de)点是(shì),AI系统加剧(jù)了现有的社会歧视。先进(jìn)的(de)机(jī)器翻译(yì)系统(tǒng)会产生性(xìng)别歧视(shì)的输出,图像识别系统把黑人归分为大猩猩。
之所以(yǐ)会出现这些问题是因为,AI系统会(huì)采用类似于神经网络(luò)的数字模(mó)型(xíng)来识(shí)别(bié)训练时候的数据(jù)。如果数据本身就(jiù)是歪(wāi)曲的,那么它固有的偏见就会自然地被(bèi)训练过的(de)AI系统(tǒng)学习和复制。这种带有(yǒu)偏见的自主技术是有问题的,因为(wéi)他们会边缘化女性、少数民族以及(jí)老年人,从而加剧社会失衡。
如经典电(diàn)影X战警(jǐng),X战警在(zài)英文里(lǐ)是X MEN,用(yòng)的(de)是男性的(de)单词,还有黑衣人Man in Black,同样也是用的男性的单词。尽管电影方已经开(kāi)始意识到性别歧视问题,在电(diàn)影中新增女(nǚ)性角色,或(huò)直接由女性演员接替成为主角(jiǎo),如Iron Man钢铁侠,虽然漫威(wēi)宣布下一(yī)任钢铁侠(xiá)是一位女性,但(dàn)其名字仍然为Man而(ér)不是Woman。
要减少(shǎo)AI系统的偏见(jiàn),我们本身(shēn)就得减少这些(xiē)偏见(jiàn)用词,虽然很不幸(xìng),我们不能完全消灭这些偏见,但我(wǒ)们(men)必须(xū)要朝(cháo)着(zhe)这个方向前进,就像电影方(fāng)一样(yàng)。