欢迎光临
我们一直在努力
您的位置:首页>人工智能 >

人工智能问题不是计算机而是计算机

世纪之交已经巩固了计算机科学作为主要科学领域的地位,并且每天都在计算机科学和相关领域(例如数学,逻辑,物理学,心理学和哲学)中取得长足进步。

随着时间的流逝和技术的不断进步,公众对人工智能(或AI)的恐惧情绪在很大程度上保持不变。

像伊隆·马斯克热门人物担心会有人类的科技创作转向反对商贩,但在该领域的专家们迅速凝固的事实,其实AI是不是很聪明的流行文化油漆它是。

AI不仅受到计算机试图存储大量数据的物理能力的严重限制,而且还受到计算机无法像人脑一样正常工作的技术能力的严重限制。

实际上,社会不必担心像机器人机器人索菲亚那样的AI接管一切,而不必担心人类闯入地下-计算机科学家和哲学家布莱恩·克里斯蒂安(Brian Christian)提出的论点。

克里斯汀·克里斯汀(Christian)在他的《对齐问题》一书中简洁地解释了这一点,他阐述了AI和机器学习的问题。提示:问题不是人工智能,而是人类。

他将对准问题描述为计算机系统面临的主要问题-它们缺乏道德指南针,这意味着计算机将永远无法在人类水平上发挥作用。

Christian将Google Photos的面部识别软件与1950年代中期的“ Shirley Cards”软件相提并论。这些Shirley Kodak卡片是根据瓷器皮肤,淡蓝色眼睛且没有其他人的模型上的印花制作的。结果,柯达胶卷无法正确捕获有色人像。

这段历史处于后视之中-但是,历史以新的方式重演。类似的问题再次提出了自己时,谷歌照片实验机器学习算法发现被误认黑人大猩猩。

尽管Google迅速做出反应并纠正了该问题,但它发现了机器学习领域的一个重大缺陷-用来汇编训练数据的资源表示缺乏多样性,因此数据存在固有的偏见。

克里斯蒂安(Christian)的比较表明,技术系统中根深蒂固。Shirley卡不是为非白人制作的,因为柯达选择不使用彩色模型。

同样,由于非技术制造商未能汇编足够的包含有色人种的训练数据,因此并非针对非白人的人也没有使用面部识别软件。

当技术是由多元文化社会的小生境建立的时,结果就是整个社会的形象不准确。世界没有获得应有的先进技术,人们对此感到非常担忧。

由于系统存在偏见,有色人种总是被冷落,并迷失于旨在保持优势地位的技术的社会歧视。

同样,Shirley Cards在创建用于照片成像的种族主义基础方面发挥了作用,在越来越多样化的社区中,培训数据集继续成为种族主义基础的受害者。这些算法什么都不做,只不过反映了人类所呈现的东西—一个有偏见的社会。

歧视性面部识别技术代表了自探索时代以来根深蒂固的种族主义。作为社会本身的反映,计算机算法不能简单地通过代码行的调整来“固定”。

计算机系统只回馈人类提供的东西。纠正人工智能和机器学习软件的输出意味着纠正社会的输入。

免责声明:本网站图片,文字之类版权申明,因为网站可以由注册用户自行上传图片或文字,本网站无法鉴别所上传图片或文字的知识版权,如果侵犯,请及时通知我们,本网站将在第一时间及时删除。