Защитить ИИ от невротиков - Wealth Navigator

Защитить ИИ от невротиков

Защитить ИИ от невротиков

Над созданием общего искусственного интеллекта (Artificial General intelligence, AGI) бьются самые известные ученые, программисты и математики. Не сомневаясь в том, что рано или поздно эта задача будет решена, Ольга Лукина предупреждает об опасности такого ИИ с точки зрения психологии и объясняет, почему к его разработке стоит допускать лишь ограниченный круг людей.


Ольга Лукина, врач-психиатр, психотерапевт, к. м. н., бизнес-психотерапевт

Скандал в мире технологий

В конце прошлого года произошел публичный конфликт в одной из самых передовых технологических компаний мира – OpenAI. Тогда по инициативе Ильи Суцкевера, сооснователя и на тот момент главного научного руководителя компании, был уволен гендиректор OpenAI Сэм Альтман. По информации СМИ, причиной увольнения стало «недостаточно аккуратное» отношение гендиректора к той технологии, над которой работает компания, расхождения в вопросах безопасности и скорости развития продукта. Экстраординарный случай для бизнеса, когда гендиректора увольняют именно по этим причинам, а не, к примеру, за провал бизнес-­показателей. За этой отставкой последовали другие кадровые перестановки и громкие заявления.

Конфликт в OpenAI заставил многих людей осознать, что общий искусственный интеллект может развиваться «правильно» и «неправильно». И оценивают сегодня эту «правильность» и «неправильность» обычные люди, пусть и интеллектуально развитые. Все мы, и разработчики искусственного интеллекта в том числе, люди со своим определенным IQ, но также и с внутренними конфликтами и ограничениями, пережитыми эмоциональными травмами, со слепыми зонами и привычными искажениями в осознании, более того, с физиологическими и психическими особенностями.

Два полюса эмоций

Разработчики, которые сегодня увлечены идеей создания общего ­искусственного интеллекта, хотят добиться того, чтобы компьютер смог не просто воспроизвести, но превзойти процесс человеческого мышления. Они углубляются в анатомию и нейрофизиологию, анализируют, как устроен мозг, как происходят процессы восприятия, обработки и передачи информации.

Я никогда не рассмат­ривала мозг как изолированный человеческий орган, сотканный из нейронов, нервных волокон и сосудис­той сети. Морфологически мозг может выглядеть совершенно здоровым, а человек при этом страдает от эмоциональных или психических расстройств. Мы очень немного знаем, например, о том, какие изменения вызывают шизофрению.

На мой взгляд, нельзя недооценивать, что на мыслительную функцию мозга влияет очень много факторов: состоятельность функций других соматических органов и систем, детские эмоциональные травмы и дефициты, наша система духовных и этических ценностей. Все это приводит к тому, что в ответ на одни и те же внешние события мозг различных людей абсолютно по-разному воспринимает картину мира, обрабатывает информацию и выбирает совершенно различные стратегии действий.

Представим, что есть двое коллег, которые по какой-то причине вступили в конфликт. Один – гармоничный человек, с паттернами доброжелательных отношений в семье. В ситуации конфликта этот человек начинает использовать свой мозг, чтобы максимально экологично выйти из нее. Во-первых, он приложит усилия, чтобы преодолеть неприятные эмоции, вернуться в состояние равновесия. Во-вторых, выработает стратегию, как договориться с оппонентом, обозначить свою позицию, аккуратно и твердо провести границы и урегулировать конфликт, не разрушая ни себя, ни второго человека. Если этого не получается, он принимает решение эти отношения закрыть.

Что делает другой человек, у которого в силу жизненных обстоятельств сложился абсолютно иной сценарий поведения в социуме? Я называю его деструктивным, так как он не позволяет выстраивать гармоничные отношения с людьми из позиции «выигрыш-­выигрыш». Такой человек может испугаться агрессии, впасть в оцепенение, позволить другому доминировать над собой. Это поведение маленького ребенка, который сделает все что угодно, лишь бы быть «хорошим».

Другой вариант – человек с деструктивным сценарием может стремиться полностью подавить своего оппонента. Для него не существует варианта договориться по-хорошему. Если настоять на своем не получится, он может начать закулисные игры, чтобы добиться увольнения того, с кем у него произошел конфликт. Этот человек будет удовлетворен только в том случае, когда ему удастся полностью уничтожить своего врага, лишить его власти, ресурсов, статуса.

Что интересно, мозг такого человека может быть просто идеальным с анатомической точки зрения. Он может генетически иметь хорошие предпосылки для быстрых, глубоких интеллектуальных операций, обладать хорошим контейнером памяти. Но этот потенциал не будет использован для того, чтобы решить ситуацию максимально мирно. Наоборот, умный мозг направит усилия либо на быстрое бегство, либо на максимальное доминирование.

Причем здесь ИИ?

Я считаю, что AGI станет таким же умным, как человек, только в одном случае: если его создатели не прос­то учтут существование эмоций, но и признают, что эмоции и чувства (осознаваемые либо нет) определяют, «хочу» или «не хочу», и мотивируют к принятию решений.

Отсюда следует вопрос: а кто создает и обучает ИИ? Если люди, которые разрабатывают искусственный интеллект, будут очень интеллектуальными, но при этом невротически организованными, нарциссичными, деструктивными, то они придадут общему искусственному интеллекту такие же невротические черты. Так происходит сейчас повсеместно в семьях, когда невротические родители передают свои деструктивные сценарии и картину мира детям. А повзрослевший человек уносит их дальше в жизнь и передает уже своим потомкам.

Поэтому я полностью поддерживаю Илью Суцкевера в его стремлении максимально аккуратно обращаться с новой технологией. Считаю, что лидерам разработок необходимо искать способы отбора людей, занимающихся обучением AGI на глубоком уровне. К таким работам нужно допускать только людей, подтвердивших, что они могут жить в парадигме «выигрыш-­выигрыш». Иначе после создания AGI жизнь социума может оказаться еще более невротичной, чем это есть сейчас.