2 min read

Слабый искусственный интеллект (Weak AI)

Слабый искусственный интеллект (Weak AI)
Фото: Secret Travel Guide / Unsplash

Слабый (узкий) искусственный интеллект – это тип Искусственного интеллекта (AI), который ограничен определенной или узкой областью. Слабый ИИ имитирует человеческое познание. Он может принести пользу обществу, автоматизируя трудоемкие задачи и анализируя данные способами, которые людям порой не под силу или чрезвычайно трудозатратны. Слабый ИИ можно противопоставить сильному, теоретической форме машинного интеллекта, который равен человеческому.

Слабому ИИ не хватает человеческого сознания, хотя временами он может это имитировать. Классической иллюстрацией слабого ИИ является мысленный эксперимент Джона Сирла «Китайская комната».

Фото: Daniel Chen / Unsplash

В этом эксперименте говорится, что человек за пределами комнаты может разговаривать на китайском языке с человеком внутри комнаты, которому дают инструкции о том, как отвечать на вопросы на китайском языке. В этом эксперименте кажется, что человек в комнате говорит по-китайски. На самом деле, он не мог бы сказать или понять ни слова по-китайски без инструкций, которые ему давали. Человек хорошо выполняет инструкции, а не говорит по-китайски.

Узкие системы ИИ не обладают общим интеллектом; у них есть свой, "особый". Искусственный интеллект, который знает, как проехать из точки А в точку Б, обычно не способен вызвать Вас на игру в шахматы. Точно так же ИИ, который может притвориться, что говорит с вами по-китайски, вероятно, не сможет подмести ваши полы.

Слабый ИИ помогает превратить Большие данные (Big Data) в полезную информацию, обнаруживая закономерности и делая прогнозы. Примеры слабого ИИ включают новостную ленту Facebook, предлагаемые покупки Amazon и Siri – технологию Apple, которая отвечает на устные вопросы пользователей. Спам-фильтры электронной почты – еще один пример слабого ИИ: компьютер использует алгоритм, чтобы узнать, какие сообщения могут быть рекламой, а затем перенаправляет их в соответствующую папку.

Ограничения

Помимо ограниченных возможностей, некоторые из проблем со слабым ИИ включают возможность причинения вреда в случае сбоя системы. Например, беспилотный автомобиль, который неправильно рассчитывает местоположение встречного транспортного средства и вызывает смертельное столкновение. У системы также есть возможность причинить вред, если она используется кем-то, кто желает нанести урон, – скажем, террористом, который использует беспилотный автомобиль для установки взрывчатых веществ в людном месте.

Еще одна проблема, связанная со слабым ИИ, – это потеря рабочих мест из-за автоматизации растущего числа задач. Взлетит ли уровень безработицы, или общество найдет новые способы, позволяющие людям быть экономически продуктивными? Хотя перспектива того, что большой процент рабочих потеряет работу, пугает, сторонники теории утверждают, что также разумно ожидать, что если это произойдет, появятся новые рабочие места, которые мы пока не можем предсказать, поскольку использование ИИ становится все более всеобъемлющим.

Автор оригинальной статьи: Jake Frankenfield