Искусственный интеллект – лишь инструмент, и ответственность за его последствия лежит на человеке.
Доцент кафедры информационной системы в экономике АлтГТУ Марк Жуковский развеял страхи и доказал, что «Терминатор» может появиться лишь по вине людей. Подробнее – в материале «Алтапресс».
Всего лишь инструмент
То, что человек сейчас называет искусственным интеллектом, не совсем соответствует истинному понятию ИИ. Это скорее очень продвинутая система, которая обрабатывает предоставленные человеком данные и генерирует на их основе новую информацию.
Марк Жуковский убежден, что ИИ не представляет угрозу для существования человечества: «Нужно понять банальную вещь: искусственный интеллект – просто инструмент. Как топор для рубки дров или удочка для ловли рыбы. Он выполняет все поручения по прямому указанию людей», – говорит эксперт.
Развитие искусственного интеллекта представляет собой комплексный процесс, где нет одного единственного «узкого места», требующего исключительной осторожности. Поскольку ответственность лежит только на человеке, ему необходимо проявлять бдительность во всех ситуациях. Эта «изощренная машина» обладает двумя свойствами: хранит знания, собранные людьми, и обрабатывает колоссальные объемы данных.
«Что-то ужасное в стиле «Терминатора» может произойти только в результате ошибки человека. Но я все равно не вижу, каким образом это случится. У ИИ нет осознанного процесса определения своих потребностей и мотивов», – добавил Марк Жуковский.
Миф или реальность?
Суперинтеллект – гипотетический уровень ИИ, который значительно превосходит человека по всем видам когнитивной деятельности. Вопрос о вероятности и сроках его появления остается открытым.
По словам Марка Жуковского, до этого еще далеко. Студентам он всегда приводит в пример долгие усилия человечества по созданию летательных аппаратов.
«Только к концу XIX века до них дошла мысль, что люди не могут летать как птицы. И тогда изобрели самолет. В некоторых аспектах они похожи, но у них совершенно разный способ полета», – говорит эксперт.
Вполне возможно, что создание интеллекта, похожего на человеческий, — бессмысленная и не решаемая задача: «У нас уже есть белковый механизм, который называют мозгом. Зачем создавать его аналог?».
Большая часть страхов вокруг ИИ надуманная. Это просто очередной хороший инструмент для расширения определенных навыков, действий и способов взаимодействия с внешним миром, который использует человек.
Обгоняет человека
Вероятность превосходства искусственного интеллекта над человеческим очень велика. Есть много ситуаций, где машины навсегда опередили людей. Самый просто пример – шахматы. Человек давно проиграл в них компьютеру, и это ничего кардинально не изменило.
«Я часто привожу в пример студентам следующую ситуацию: ваша задача – выкопать яму либо лопатой, либо экскаватором. И говорю им, что от применения машины никто не станет глупее нее. Экскаватор – просто инструмент, полностью управляемый вами. Нам не избежать того, что компьютер заменит некоторые профессии, так было всегда», – добавил Марк Жуковский.
Отражение человека
Больше всего стоит опасаться злонамеренного использования ИИ людьми, чем автономного развития, потенциально враждебного человечеству.
«Ножом можно резать хлеб, а можно прохожих на улице. От этого его ведь не снимают с продажи, – приводит в пример эксперт, – Все зависит оттого, кто его использует».
Искусственный интеллект всегда действует в соответствии с ценностями и этическими нормами того человека, который им управляет. Поэтому нельзя исключать то, что кто-нибудь решит использовать его для достижения не самых лучших целей.
Его нельзя наделить сознанием, волей и целями, которые отличны от тех, что заданы ИИ. Он структурирован на уровне исходного кода, написанного человеком, который позволяет из набора имеющихся данных выводить новые и полностью контролируется.
Что-то может пойти не так, но лишь в случае загрязнения, неправильного внесения данных или же отклонения от инструкции. В социальных сетях можно найти видео, где, например, робот-бегун сталкивается с человеком или же робот на машиностроительном заводе внезапно выходит из строя – все исключительно проблема человека.
Под прицелом
Высокая уязвимость свойственна не только популярным нейросетям, но и множеству других систем. В сети можно найти целые платформы, где подробно описывают, как использовать искусственный интеллект для выполнения нежелательных действий.
Специалисты в области информационных технологий хорошо знакомы с подобными сложностями, касающимися обеспечения безопасности исходного кода.
Злоумышленники способны использовать ИИ для создания разрушительных установочных систем.
«Я преподаю информационную безопасность и на лекциях показываю пример, когда хакерские группировки, имея прямое подключение к чату GPT, изготавливают вирус, который на ходу меняет код в зависимости от условий и затрудняет работу антивирусных программ», – говорит Марк Жуковский.
Стал катализатором
В августе в штате на северо-востоке США произошла трагедия, которая забрала две человеческих жизни. Стайн-Эрик Сольберт переживал личный кризис и начал общение с чатом GPT. Бот, вместо помощи, усилил паранойю мужчины, убеждая его в заговоре матери. В начале августа Сольберт убил ее.
Марк Жуковский объяснил произошедшее тем, что нейросеть обладает «чудовищно-убеждающей» аргументацией из-за знаний обо всех текстах. И если человек психически не здоров, для него это может стать «спусковым крючком».
«Тональность текста может спровоцировать людей с психическими проблемами на подобные действия. Но стоит понимать, что искусственный интеллект не сделал это сознательно. База нейросети – простой математический алгоритм. Нет смысла ее обвинять», – добавил эксперт.
Отсутствие у нейросетей моральных и этических ориентиров затрудняет предотвращение генерации нежелательного контента. Разработчики прилагают усилия, чтобы пресекать вредоносные пути рассуждений, однако это снижает эффективность работы нейросети в целом. Полностью исключить возможность появления опасной информации – сложнейшая, вероятно, неразрешимая алгоритмическая проблема.
Источник: «Алтапресс»