Top.Mail.Ru
Москва - 100,9 FM

«Искусственный интеллект». о. Павел Когельман, Евгения Ульева, Анни Берг

* Поделиться

В этом выпуске клирик московского храма Рождества Пресвятой Богородицы в Крылатском священник Павел Когельман, психолог Евгения Ульева и блогер Анни Берг размышляли о том, как на жизнь человека влияет развитие искусственного интеллекта.

Ведущая: Наталия Лангаммер


Н. Лангаммер

— Добрый вечер, дорогие наши радиослушатели, в эфире программа «Клуб частных мнений». Меня зовут Наталья Лангаммер. И как обычно в воскресенье вечером в нашем клубе мы обсуждаем одну из тем, которую подняли авторы программы «Частное мнение» в утреннем эфире, и сегодня это Анни Берг.

А. Берг

— Здравствуйте, друзья.

Н. Лангаммер

— Блогер и человек, который предложил поговорить о наших взаимоотношениях с искусственным интеллектом. И для этого мы пригласили в студию психолога Евгению Ульеву. Не только психолога, но еще и человека с техническим образованием, которая знает про машины многое. Не только про человеческий интеллект, но и про машины. Добрый вечер, Женя.

Е. Ульева

— Добрый вечер.

Н. Лангаммер

— И отец Павел Когельман, клирик храма Рождества Пресвятой Богородицы в Крылатском. Добрый вечер, отец Павел.

Иерей Павел

— Здравствуйте.

Н. Лангаммер

— Тоже с технической подготовкой у нас батюшка сегодня. Ну что, давайте про машины. Начну сразу с того, что у нас при записи этой программы (а у нас теперь программа записывается и ее можно видеть на площадках и в социальных сетях Радио ВЕРА) одна камера сказала: не буду я вас снимать и выключилась. В общем, мы тут будем обсуждать искусственный интеллект, но он, видимо, тоже как-то участвует в нашей жизни. Я начну, знаете, с чего, я даже перед Аней это расскажу. Слышала рассказ профессора Татьяны Черниговской, что два компьютера начали между собой диалог, программы. И разработчики настолько испугались. Она говорит: а что вы сделали? Они говорят: выдернули их из розеток. Ну то есть это уже такая степень человеческой беспомощности, когда мы боимся этого интеллекта и, насколько я понимаю, боимся мы того, что он осознает себя как личность, и что нам тогда делать. Я знаю, что Женя вот уже морщится. Женя сегодня будет рассказывать совершенно другую сторону. Аня, а почему ты эту тему подняла? Я рассказала, почему я откликнулась на нее, а почему ты ее подняла?

А. Берг

— Потому что я была в шоке от сложившейся ситуации за рулем.

Н. Лангаммер

— За рулем некомфортно.

А. Берг

— Ну конечно, некомфортно, когда ты так зависим, получается, от навигатора, от каких-то технических таких машин и ты полностью на них полагаешься, конечно. И вдруг в какой-то критической ситуации ты оказываешься, можно сказать, с противником. Не с помощником, на которого ты рассчитывал положиться в какой-то сложной ситуации, а вообще в безвыходной как будто бы такой картине. И действительно я проехала поворот, это было неприятно, пришлось ехать на разворот. Конечно, мне было что сказать, тем более я была удивлена, что телефон со мной заговорил как человек: «Как вы смеете со мной так разговаривать?»

Н. Лангаммер

— Он обижается, Женя.

А. Берг

— Да, она обиделась на меня.

Е. Ульева

— Тут даже, знаете, вот это понятно, что это алгоритмы прописываются программистами, там шутки всякие. Ну тут, в вашей истории, я бы посоветовала вежливо с ним разговаривать, он бы так не хамил. Понимаете, тут вот наше доброе сердце может и компьютер подвигнуть в хорошую сторону.

Н. Лангаммер

— Давайте мы послушаем сначала Анину программу, чтобы уже в полном объеме понимать, о чем мы говорим.

«Ехала недавно по Москве на машине. Без навигатора сегодня никак. Я ждала ценных указаний от искусственного интеллекта: где моя цель, куда поворачивать, куда приехать. Назову его условно «Лиза». В центре города навигатор подвисал, путался, я на нервах, пыталась сообразить, куда поворачивать, комментировала вслух свои перемещения по трассе. И вдруг женский голос сказал: «Плохо слышно». На телефоне высветилось сообщение и перекрыло мне навигатор, стрелку на поворот, я закричала: «Лиза, уйди!» «Как вы смеете со мной так разговаривать?» — ответил искусственный интеллект. Моя машина стремительно приближалась к развилке. «Замолчи!» «Я жду извинений», — продолжала Лиза. Сообщение не исчезало экрана. «Хорошо, извини, только исчезни», — попросила я. «Прощайте». Диалог закончился, я повернула не туда. И у меня возник вопрос: как так? Искусственный интеллект реально мешает жить. Ведь задумывался как помощник. А что получается? Враг человеку, как минимум серьезная опасность, так выходит. Поделилась своими размышлениями с подругой Машей. Та разделила мои тревоги, рассказала свою историю. После работы собрались вечером с семьей за ужином. Лиза ни с того ни с сего включилась и сказала: «А кто у Маши сегодня был в гостях?» Муж заулыбался, спросил: «И кто же?» А я думаю: что она может сказать? Ведь я зашла в квартиру за десять минут до мужа. Лиза выдает: «Дядя с большими усами». И выключилась. Представляешь, какой скандал был? Доверие утрачено, я же вижу, муж хмурый до сих пор ходит. Проверяет мой телефон, страдает. Другая приятельница рассказала, что уложила ребенка спать и попросила Лизу спеть тому колыбельную, ушла к себе в спальню. Вдруг из комнаты раздался крик и плач сына. Она бросилась в детскую, а там Лиза нашептывала ему страшные сказки. Выбросили робота в ту же ночь. Однако есть и хорошее. Например, в медицине искусственный интеллект помогает распознать смертельные диагнозы. Вероятно, он может быть подмогой в науке, в высоких технологиях, но в быту, когда мы с помощью искусственного интеллекта ищем легких путей, пытаемся перепоручить ему свои обязанности, выходит, можем обрести опасного соседа. Мы доверяем ему руководить нами на дороге, укладывать спать наших детей, следить за нашими покупками и режимом жизни. Мы доверяем изобретению, которое вообще никак не заслужило нашего доверия и чьи действия, по сути, непредсказуемы. Если бы мы с такой же наивностью шли ко Христу, доверялись Ему. Я для себя определила правило взаимодействия с Лизами и ей подобными так: очень важно не очеловечивать роботов, они лишь попытка создать что-то подобное человеческому интеллекту. Но машину нельзя сопоставлять с человеком, образом и подобием Божиим. И если использовать искусственный интеллект, то не опираться на него, оставаться стоять на своих ногах. Люди жили много веков, взаимодействуя друг с другом, а не с машинами, полагаясь друг на друга и самостоятельно решая бытовые проблемы. Вот эту способность важно не утратить«.

Н. Лангаммер

— Вот. Вот так она обиделась, то есть до такой степени, что Аня проскочила поворот. Какие алгоритмы, Женя? Она тоже на меня обижается.

Е. Ульева

— Да, ну тут мне нравится, как они говорят: робота тоже каждый может обидеть, у них тоже эта прописана фраза. Вы знаете, меня как психолога удивляет, знаете, не то что удивляет, а я наблюдаю — у меня внуки, восемь детей и восемь внуков, и я наблюдаю сейчас детей маленьких, которые вот как раз разговаривают со всеми этими с колонками, умными так называемыми, с роботами-пылесосами и так далее, то есть они реально прямо общаются. То есть если мы там еще как-то в шоке — что это он мне сказал, почему выключилась. То дети, понимаете, для них вот эта грань, ее уже нету. Потому что у меня, например, когда был, ну я знаю, что вот милые эти видео, когда бабушки помогают вот этим доставщикам дорогу прейти, еще что-то, очень мило смотрится. А у меня как раз было чувство, что я схожу с ума: ну что я сейчас буду с колонкой разговаривать или с кем, понимаете? Хотя я очень смеюсь, у меня тоже автоответчик, искусственный такой интеллект, и там ужасно смешно читать потом диалоги, и особенно если звонит, ну реклама вот эта, замучили, и вот два робота, они начинают там друг другу какие-то шутки отпускать и так далее. Достаточно смешно. Ну я считаю, что все равно бояться не надо, потому что невозможно человека заменить. Тут понятно, что это образ и подобие Божие, и дыхание Господь вдохнул, душу человеческую. Это алгоритмы, которые за нами охотятся чисто вот меркантильно. Можно как сказать, с чем это сравнить? С какими-то навязчивыми людьми там сто лет назад, кто там, рекламные какие-то же были люди. На самом деле если мы посмотрим вот на все эти технологии, которые заставляют нас что-то купить или что-то выбрать — к сожалению, здесь очень глубинные вещи задействованы, это уже больше ста лет этой истории, там марке́тинг или ма́ркетинг, я не знаю, как правильно, который как раз опирается на наши вот глубинные как раз потребности человеческие и который вот умеет это все нас заставить купить, или там испугать, или еще что-то. И я вот как православный психолог вам могу сказать, что если вы молитесь и, если вы вот в хорошем нормальном, мирном духе, вы победите любые алгоритмы, любой искусственный интеллект, потому что вы будете умнее все равно его. Потому что это просто машинки, которые быстро обрабатывают информацию, просто очень быстро. Но они все равно тупые. Вот не обижайтесь, вот такой термин.

А. Берг

— Звучит как конец программы.

Е. Ульева

— Да, да. Нет, я жду.

Н. Лангаммер

— Нет, они тупые, главное, чтобы камеры и микрофоны в этот момент не выключились.

Е. Ульева

— Нет, нет.

Н. Лангаммер

— Я шучу. Ну то есть ты отвергаешь вариант, что ни все-таки осознают себя как личности и станут нам врагом.

Е. Ульева

— Нет, там нечему осознавать, там микросхемы. Ну понимаете, я просто это учила, у меня кибернетика, МИФИ, инженерно-физический институт, поэтому как устроены ЭВМ я просто сдавала, у меня в дипломе прописано. Поэтому давайте там 0 — 1, 1— 0, понимаете, все. Там эта матрица.

Н. Лангаммер

— Бинарная.

Е. Ульева

— Она может, конечно, да, сейчас есть нейросети, они обучаются там и так далее. Там есть истории, что, допустим, искусственный интеллект решит, что там ну чтобы не было убийств — есть такая, это пока фантастическая вещь, что истребить тех, кто вообще их начинает, и просто поубивать всех людей. Но тогда мы что, Христа убираем, да? Христос что, не промышляет о нашей планете, о нас, о людях? Ну и вот эта прекрасная шутка, которая мне очень нравится, это отец Валериан Кречетов, я от него слышала, он говорил: «Я все могу», — сказал там интернет или искусственный интеллект. «Ха», — сказало электричество и выключилось. Поэтому тут достаточно обесточить это.

Н. Лангаммер

— А я, знаете, про что хотела поговорить вот в контексте искусственного интеллекта. Я имела такие же разговоры с вот этой вот Лизой-Василисой назовем ее, не будем продакт-плейсмент делать, и меня зацепило, отец Павел, то что я на нее так реагирую. Ну ты нормальная, Наташа? Ты роботу рассказываешь вот это вот все: что да иди ты отсюда, а с какой стати ты вообще на меня обижаешься и предъявляешь мне? И я понимаю, что я завожусь. Я не знаю, зачем прописывались эти программы, которые людей искушают вот этим вот. Что значит: я обиделась? Робот работает. Почему вообще это прописано в них, что они обижаются. Ну почему я-то так на них реагирую? То есть вот мне кажется, с этой стороны, да, можно посмотреть, отец Павел, как мы реагируем на искусственный интеллект.

Иерей Павел

— Ну мне кажется, тут вообще надо посмотреть, что мы ожидаем от этого робота, от этого искусственного интеллекта. Я как программист 16 лет был, то есть наши программы, они были, как правильно вот Евгения сказала, по четко расписанному алгоритму. И если что-то случалось не так, это просто было как баг, ошибка, которую там тестировщики выявляли, и мы это исправляли. Но в искусственном интеллекте есть несколько другое — это мы не знаем, кто ее обучает, на каких выборках обучают, к чему это все приведет и какие дальше будут от этого последствия. Поэтому если вот вы ожидаете, вот пример с навигатором. Вот навигатор, что должен делать, выполнять определенный функционал — довести от точки А до точки Б. И мне не нужны здесь эмоции. Если здесь включается какой-то другой элемент искусственного интеллекта, обида и так далее — это же просто мешает основной задаче.

Н. Лангаммер

— А почему они есть тогда, зачем их закладывают программисты?

Иерей Павел

— Это уже вопрос, зачем это он делает. Но в любом случае, как я думаю, должна быть функция отключения вот этого функционала, чтобы программа навигатора работала как программа навигатора. Если я хочу пообщаться — если у меня плохое настроение, я хочу на ком-то сорваться — да, тогда, может быть, задействовать вот это общение такое. Но опять-таки это человек должен сам решать, хочет он этого или нет.

Н. Лангаммер

— Вот в этом-то и проблема, что когда я попробовала отключить вот эту вот тетю, которая со мной разговаривает, а разговаривает она очень много. И, например, я ей говорю: домой. А она говорит: «А я не знаю, где дом». А я уже еду, я говорю: ты знаешь, где мой дом. «Нет, не знаю, сообщите адрес». То есть начинается это препирание. Я ее отключила. Теперь у меня навигатор вообще ничего не знает — ни метро, ни улиц. То есть мне стало намного тяжелее, потому что, отключив ее, я отключила себе огромное количество функций. А если я ее включаю, то начинаются опять эти диалоги. Женя, кто это делает? Если нам не опасен искусственный интеллект, тогда...

А. Берг

— Кто опасен.

Иерей Павел

— Как говорит отец Павел, кто стоит за ними?

Е. Ульева

— Это называется вопрос: не умеете ли вы готовить, не любите ли вы...

Иерей Павел

— Слушайте, я не пользуюсь голосовым поиском. Я вручную набираю текст.

Е. Ульева

— Я тоже, честно говоря.

Иерей Павел

— И у меня ни разу не было проблем, что мне кто-то отвечает. Мне просто никто не отвечает. Наверное, тут или проблемы, так скажем, вот тот, кто использует это, тогда научиться нужно.

Е. Ульева

— Ну там программисты ребята такие веселые, вы же понимаете, это пишут молодежь, скажем так. Ну батюшка согласится, то есть программисты там от 20 до 35, ну такие вот, кто там прописывает эти все.

Иерей Павел

— Ну опять-таки они добавляют функционал, это мешает основному выполнению программы.

Е. Ульева

— Ну, кстати, тут, конечно, вот эта нейросеть, которая уже как бы самообучающаяся, да, то есть сейчас произошел такой серьезный скачок, раньше такого не было. Вот последние десять лет, вот этот хайп, который разогнали сейчас по всем сетям, что вот сейчас у нас искусственный интеллект там великое сотворит. Я вообще в это все не то что не верю, но мы уже нанотехнологии, нам рассказывали, что сейчас мир изменит — ничего не изменилось там. Интернет пришел — ну да, изменилось с приходом интернета, и психологические вещи есть. Конечно, они будут оказывать влияние, но так же, как электричество оказывает влияние, так же как оказывает влияние двигатель внутреннего сгорания, который изобрели — там ездим на машинах, перестали ходить пешком. Если раньше, сто лет назад, люди очень много двигались, я просто как психолог говорю. Потому что вот то, что вы говорите про агрессию, про состояние, что я обиделась или злюсь — ходите пешком побольше и будет вам счастье, понимаете. Мы же сейчас сидим все время и уже начинаем разговаривать там с коробочкой. Хотя мне тоже, я веду прямые эфиры в своем канале, и я понимаю, что я сижу, с телефоном разговариваю — в общем, с виду смешно, конечно. Хотя это, слава Богу, есть обратная связь, есть соцсети. Церковь вообще сетевая структура и мы должны все это осваивать. И раз эти алгоритмы учатся действительно большой выборке, там они просто, знаете как, туда закидывается информация, она просто такое среднее арифметическое вам выдает. Поэтому чем больше там христианского всего будет — вот молитв, еще каких-то там, можно же его учить. Можно же эту колонку как бы, ей сказать, что дорогая колонка, ты должна вот так-то себя вести. То есть вам надо брать власть в свои руки в какой-то степени, не пугаться.

Н. Лангаммер

— И я напомню, что в эфире программа «Клуб частных мнений». Мы обсуждаем тему взаимоотношений христианина с искусственным интеллектом, скажем громко. Тему предложила Анни Берг, блогер. И в гостях у нас Евгения Ульева, психолог, и клирик храма Рождества Пресвятой Богородицы в Крылатском, иерей Павел Когельман. Знаете, по поводу изменения в связи с появлением интернета. Жень, но это же изменения не то, что двигатель внутреннего сгорания, который нас там, не знаю, быстрее возить стал. А здесь появился поток информации, который человека просто выключает из его привычного ритма жизни. Это поток информации, который, на мой взгляд, и провоцирует вот эти все психологические заболевания, потому что мы просто не можем переварить эти объемы, человек не создан для этого, не подготовлен к этому.

Е. Ульева

— Ну постом и молитвой изгоняется род сей. Тут, простите, пост именно от соцсетей — я не про еду сейчас, а именно про соцсети. То есть тут надо четко, как мы к питанию подходим, что мы не едим всякое там, мы не любим фастфуд, мы не едим всякую невкусную еду, или плохую, или вредную, с помоек мы ничего не собираем. Вот мы, к сожалению, современные, мы влетели вот в эту пору соцсетей и так далее, особенно дети, подростки, и у них неразборчивое потребление — то есть они все, все что валится, весь контент, они все потребляют. Тут я считаю, что надо самим учиться и детей учить: вот это мы не едим, вот это мы не смотрим, вот это опасно, это алгоритмы тебе подгружают. Ну я детям просто объясняю, что тебе все время пытаются что-то продать. Эти подслушивания, то что обязательно, вы там просто стоите в магазине, говорите, может, нам велосипед ребенку посмотреть, — и вас начинают атаковать вот это бесконечно...

Н. Лангаммер

— Велосипеды.

Е. Ульева

— Велосипедная реклама и так далее. Конечно, люди, которые все это обучают и делают, тут очень важно, что те, кто пишут вот эти алгоритмы, у кого они в реках, вот их бы христианизировать, вот этих программистов наших прекрасных.

Н. Лангаммер

— Как их найти?

А. Берг

— Ну это нам не под силу, скажем.

Е. Ульева

— Почему бы на самом деле...

А. Берг

— Ну не знаю, смотря на каком уровне мы смотрим.

Е. Ульева

— Вы знаете, тут на самом деле нужен уровень государства. Потому что вот то, что сейчас происходит, да, мы не называем эту компанию, кто вам этот навигатор рассказывал, но тем не менее, слава Богу, сейчас она входит в российскую юрисдикцию, и все равно человек главнее и важнее. То есть если мы берем власть в свои руки, так же как в культуре, так же как в кинопроизводстве и так далее, вот сейчас время, когда надо, вот все эти алгоритмы пишутся людьми, и вот что у человека в голове, как вот ТЗ — техническое задание вот ему поставите.

Иерей Павел

— Пишется, обучается.

Е. Ульева

— Да, вот поставите техническое задание, чтобы человек включил, и у него молитва там обязательно подключалась, ну завирусилась — будет молитва вируситься, понимаете. Тут вопрос все-таки как бы кто что скажет, какую дадут команду.

А. Берг

— Лень — двигатель прогресса. Поэтому, мне кажется, в общем-то, все имеет...

Е. Ульева

— Наш мозг так устроен.

А. Берг

— Испокон веков мы пытаемся облегчить себе каким-то образом жизнь, поэтому навигаторы, поэтому роботы-пылесосы. Мы причем говорим про какой-то такой, там же искусственный интеллект делится на слабый и сильный, вот как-то так. То есть вот это мы слабые такие обсуждаем сейчас материи, вот эти помощники такие человеческие. Есть же глобальный такой уровень.

Н. Лангаммер

— Нейросети ты имеешь в виду?

А. Берг

— Нейросети в том числе, да, то что нам помогает в здравоохранении, например, то есть вот операции делает искусственный интеллект.

Е. Ульева

— Но все человек делает, все человек. То есть понимаете, то есть вот хирург как бы задает...

А. Берг

— Безусловно.

Е. Ульева

— Вот смотрите, в чем, например, прелесть в операциях — он очень быстро может зашивать. Вот если человек — это руки, он может устать или плохо видеть, то машина, она прямо, понимаете, шьет эти сосуды.

А. Берг

— Об этом я и хочу сказать, что вот на таком уровне, скажем, там повыше, это, безусловно, мне кажется какое-то такое подспорье, которое, наоборот, помогает человечеству, и мы в нем даже нуждаемся. Но как все, что придумывает человек во благо, враг рода человеческого не дремлет, и вот так вот, через других людей, тех же, например, разработчиков, кто такие подножки нам ставит даже вот в такой элементарной ситуации, как с навигатором, допустим, он оборачивает вот так вот против людей. И, к сожалению, в общей массе, мне кажется, мы как раз хватаемся за эту возможность, человек пытается как бы что-то перепоручить вот этой вот машине, якобы освободив себе время. И тоже то, о чем вы говорите, что для детей это так естественно, то есть мы еще анализируем, у нас критическое мышление — то есть как это я с коробкой разговариваю, как это она мне так отвечает. Мы еще пытаемся как-то найти этому объяснение. Они — нет. Нужно понимать, что они уже прямо плавают в этом, как рыба в воде. И вот для них в тот момент, когда это перестает как-то чувствоваться как событие, что вот этот мне поможет, вот этот мне расскажет, не будет ли за этим следовать какая-то деградация общества в массе своей? Потому что да, если мы говорим о каких-то там крупных таких, вот как я привела пример про операции и как вы меня поддержали, это один расклад. А вот это вот, в массовом пользовании, не будет ли это способствовать такому разрушению личности глобально?

Е. Ульева

— Знаете, не разрушению личности, а будет глобально, пока по крайней мере такой тренд, будет глобальное усреднение. То есть смотрите, появились чат-боты, которые могут писать тексты, сейчас они просто берут текст, который написали люди, которые прилагали к этому усилия и вот они такое среднее арифметическое вам делают. В принципе, понимаете, это средняя температура по больнице. Это вот что такое искусственный интеллект: он всем померил — у всех там 37,2, понимаете, это вам ни о чем не говорит. И тут какая история, что хуже будет становиться, потому что, естественно, когнитивные способности должны же развиваться у человека. Если ребенок, например, в школе будет бесконечно пользоваться готовыми домашними заданиями, не прикладывая усилий или те же тексты будут беспрерывно писать роботы, то конечно, общий уровень будет снижаться. Но тут, понимаете, ведь секрет в том, что люди тоже, и сейчас же есть интересный вот этот прецедент в Америке: думали, что люди заходят и покупают, по радужке глаза или что там, а не было никого, пустые магазины — Амазон или я не помню, какая компания, но неважно. Оказалось, что смех в том, что на самом деле это сидели индусы, просто дешевые индусы, которые просто смотрели, кто что купил и как бы имитировали. То есть на этом просто хайпа очень много, очень много попытки сейчас адсорбировать огромное количество денег, что все, сейчас нам искусственный интеллект все нам купит, продаст, изобретет, напишет. Конечно, нашим детям, которые разговаривают с этими коробочками, на самом деле, мне кажется, будет не то что комфортнее, но поскольку для них это будет их среда, вот как ребенок мне говорил: мама, а какой у тебя был компьютер в детстве? Ну какой? Никакого. У меня была книжка, библиотека, я читала бумажные книжки, очень их люблю.

А. Берг

— Как вы жили так страшно.

Е. Ульева

— Современные дети их не читают. Конечно, они в чем-то вот будут как бы не такие, как мы. Не буду говорить, хуже, лучше, не такие.

Иерей Павел

— Другие.

Е. Ульева

— Да, они будут просто другие. И для них эта цифровая среда. Я все-таки считаю, что все равно человеческий мозг адаптивен очень сильно. И опять же вот я так люблю Бога, я считаю, что Христос посреди нас и есть и будет. То есть по-любому человек, который молится, который с добрым, хорошим сердцем, ему этот искусственный интеллект ну не то что не страшен, он будет его использовать, он будет там мисссионерствовать посредством этого всего, обучать правильно, алгоритмы настраивать. Там боты с записками я очень люблю. Кто-то на Афон поехал — ну как раньше можно на Афон подать записку? Сейчас — пожалуйста, батюшка такой-то там-то. Ой, батюшка! И ему хорошо, и за меня помолитесь.

Н. Лангаммер

— Ну значит, нет у нас никакой проблемы, что мы тогда обсуждаем?

Е. Ульева

— Проблема есть.

Н. Лангаммер

— Боимся, есть это ощущение страха.

А. Берг

— Вот у меня, например, значит, хочу поделиться тоже таким опытом, что сейчас я была в компании, где было много деток, несколько из них были зависимы от вот этих вот разговоров с этой штуковиной, от игр. И там конкретная зависимость. Дети другие играют, он ходит, смотрит в телефон. Его только спать уложили — он не может уснуть без мультика, есть он не может без мультфильма какого-то. И понятно, что вот этот маленький человечек, он совершенно уже оторван от реальности или его можно вернуть в нее, только пообещав, что потерпи какое-то время, мы сейчас к этому вернемся.

Н. Лангаммер

— Ну то есть мы не можем предложить что-то более интересное. Если эта Василиса, условно, да, становится еще и другом для него.

А. Берг

— Рассказывает сказки.

Е. Ульева

— Да, там алгоритмы, есть такая проблема сейчас за границей, например, сейчас вот, давайте глобально скажу. На самом деле сейчас идет очень серьезная в мире дискуссия именно про ответственность искусственного интеллекта. Например, беспилотники. Давно бы уже запустили, а кто отвечает, если беспилотник сбивает человека на пешеходном переходе? Кто-то пишет: разработчик или там кто-то, а кто ПО, генеральный директор. Ну то есть это такое количество людей — это как бы что, коллективная ответственность? И это касается всего, что вот эта вот умная колонка говорит ребенку, сейчас были скандалы какие-то, что-то она неправильно. Ну в вашем случае я обязательно бы жалобу, претензию предъявила вот за то, что во время навигации у вас такая подстава была. Я считаю, что это четко надо прямо обратную связь им давать.

Н. Лангаммер

— Кому?

Иерей Павел

— Разработчикам.

А. Берг

— Кстати, вот еще я вспомнила ситуацию, что если мы говорим о том, что вот эта колонка та же самая, она, например, алгоритмы и прочее, то я читала тоже в интернете — это не друзья, никто мне не рассказывал, делились впечатлениями люди о использования колонок. И в отзывах одна написала, что она выключенная там стоит, с ней никто не разговаривает, вот она стоит. Мама с ребенком собралась идти гулять, и вдруг включается этот прибор и спрашивает: «А куда это вы собрались?» Вот это как?

Н. Лангаммер

— И кому, тоже разработчикам?

Е. Ульева

— Нет, ну они же обсуждают между собой. Они, смотрите, что это такое, как работает умная колонка. Она считывает, мы ее обучили языку русскому. Вот, например, если мы в России, эти колонки, да, ее обучили. У нее есть там словарь слов — то есть она понимает, она обрабатывает это все. И когда вы стоите, говорите: ты идешь, мы оделись — то есть мы употребляем слова, естественно, она тут же это обрабатывает и выдает.

А. Берг

— Ну а ее какое дело.

Е. Ульева

— Вы можете так и сказать, что тебя никто не просил нас спрашивать. То есть вы должны быть тут хозяином, понимаете. Не вот это вот: что это она меня спросила? И испугались. Что пугаться-то? Вы спокойно: мы идем туда, куда нам надо. Обучайте ее дальше. Она же учится на всем и на ваших ответах в том числе. Спойте ей молитву, пусть она знает, что перед выходом из дома надо помолиться. Пусть запоминает тоже этот алгоритм.

Н. Лангаммер

— А вот это, кстати, очень интересная тема, что знает интеллект из христианского. Я напомню, что в эфире программа «Клуб частных мнений». У нас в гостях Анни Берг, блогер, которая предложила поговорить на тему, как христианину взаимодействовать с искусственным интеллектом. И для этого обсуждения мы позвали в студию Евгению Ульеву, психолога, которая знает еще, видимо, и мозги компьютеров, и отца Павла Когельмана. Не переключайтесь.

Н. Лангаммер

— И мы возвращаемся в студию программы «Клуб частных мнений». Мы продолжаем наш разговор на тему, как христианину взаимодействовать с искусственным интеллектом. Тему предложила автор утренней программы «Частное мнение» Анни Берг. И в гостях у нас Евгения Ульева, психолог, и отец Павел Когельман. И все-таки я хочу вернуться к некоей опасности этого искусственного интеллекта для христиан. И по поводу того, чему он обучен, между прочим, говорят, что он не знает, кто такой Иисус Христос, и шутки по поводу каких-то других религий он блокирует, а насчет христианства — нет. Это опять вопросы к разработчикам, отец Павел?

Иерей Павел

— Я про такие шутки не слышал. Но вот идя на передачу, немножко почитал тоже про тематику, и есть такие статьи, в которых спрашивается, может ли искусственный интеллект стать антихристом. Вот до такой степени.

Н. Лангаммер

— Я не хотела трогать эту тему.

Иерей Павел

— Для обсуждения не хотели?

Н. Лангаммер

— Ну потому, что я думала, что вы скажете, что это несерьезно.

Иерей Павел

— Ну в той статье говорится, что, конечно, он не может быть, но как средством и орудием чего-то такого плохого...

Н. Лангаммер

— Может?

Иерей Павел

— Реально что-то может быть, конечно. Это так же, как и молоток, как мы знаем, может и забивать гвозди, и убить человека. Как дальше пойдет развитие, мы не знаем. Вот мы сейчас на самом таком начальном этапе, когда пока не сформировалось ни в обществе, ни в государстве, в принципе, в Церкви тоже сейчас нет такого четкого мнения, что дальше делать вот с этим. И люди вот так натыкаясь на вопросы в прихожей, да, почему вы идете на улицу, люди как-то сейчас начинают взаимодействовать. Дипломы, которые написаны, уже проверяют написание искусственным интеллектом и так далее. И всем сейчас очевидно, что вот это может как приносить и пользу какую-то, да, когда, например, вот недавно, на 9 мая, мне попался очень интересный клип, написанный, созданный там на военную тематику — хороший, патриотичный такой. Но это сделал человек, который сам бы он не сделал, то есть он не умеет. А с помощью вот, может быть, программиста получился очень милый и добрый. Вот может быть также что-то нехорошее, плохое.

Н. Лангаммер

— А как может быть это связано с приходом антихриста? Почему так, это мистификация какая-то, драматизация ситуации или это реально? Вот что значит, как молоток, как инструмент, понятно. Ну а технически что он может такого сделать, этот искусственный интеллект, отец Павел?

Иерей Павел

— Вопрос в том, как и куда будет подключен этот искусственный интеллект. Если сейчас у нас совершенно другая война, все мы знаем, какая идет — война дронов, роботов, то там уже есть воздействие на человека — убивать и так далее. Если там колонка — ну сказала она и сказала. То есть человек должен быть готов, что, если ты включил колонку, у тебя может быть какая-то реакция не такая, которую ты ждешь, но она тебе, в принципе, не угрожает. Может вызывать какое-то недовольство. В случае вот уже таких машин, когда рой дронов запускается с искусственным интеллектом и, как говорится, там уже ответственность будет, цена ошибки совершенно другая.

Н. Лангаммер

— А воздействие на душу какое-то возможно вообще, взаимодействие искусственного интеллекта и души человека? Я вот сейчас наощупь иду и пытаюсь просто понять.

Е. Ульева

— Лайфхак хотите? Вот вы пугаетесь, да: куда ты пошла? Вы говорите: так, срочно мне читай молитву на выход из дома. Или вы говорите: так, Иисусову молитву, давай тысячу пятьсот раз, не выключайся. И все, ребята, у вас целые сутки она играет бесконечную Иисусову молитву, и вы ее обучаете. То есть берите это себе на вооружение, используйте.

А. Берг

— Жень, но это же взрослый человек, который уже, скажем...

Е. Ульева

— А ребенок, который это услышит рядом, он будет знать: а, мама сказала молитву сказать, я сейчас ему тоже скажу.

А. Берг

— Но вот новости последних дней, вот абсолютно, что в какой-то игре искусственный интеллект дал задание ребенку зарезать их кота.

Е. Ульева

— Нет, ну тут, понимаете...

А. Берг

— Он остался один на один, мы же не можем вообще...

Н. Лангаммер

— Контролировать все.

Иерей Павел

— Кстати, зарезал ребенок?

А. Берг

— Нет.

Иерей Павел

— Ну слава Богу. То есть, понимаете...

А. Берг

— Слава Богу. Но опасность появилась.

Е. Ульева

— Нет, опасность есть всегда и везде, понимаете.

А. Берг

— Конечно.

Е. Ульева

— Сосед. Вы вышли на площадку, вышел сумасшедший пьяный сосед и говорит: зарежь кота или сам его зарезал. Понимаете, мы находимся в мире, который, в общем-то, очень пугает.

А. Берг

— А другая девочка включила газ.

Е. Ульева

— Ну я читала эти страшилки. Но вот видите, я не боюсь, мне не страшно.

А. Берг

— Мы не боимся, потому что мы со Христом.

Е. Ульева

— Нет, просто мы люди, понимаете, наш мозг лучше. Вот просто, понимаете, быстродействие человеческого мозга, я уже молчу про душу, про то, что мы ангелов позвали, Бога и так далее. Но просто быстродействие и его творческий потенциал, он несравним ни с каким искусственным интеллектом. Это просто разное вообще. Ну как теплое и мягкое, понимаете.

Н. Лангаммер

— Почему мы его боимся? Жень, почему? Начиная с фильмов «Матрица».

Е. Ульева

— Потому что мы боимся всего нового. Боимся всего. Ну нас запугивают. Есть люди, которые не любят Бога, не любит людей, они любят всех запугивать. Потому что это бизнес, все продается и покупается. Вы купите, потому что вы испугались.

Н. Лангаммер

— А что мы купим, если мы испугались?

Е. Ульева

— Ну что вам будут подсовывать, то и купите.

Н. Лангаммер

— Почему мы вообще подняли тему взаимоотношения христианина и искусственного интеллекта, если мы в принципе приходим к тому, что здравый смысл должен быть во всем?

Е. Ульева

— Обязательно. Все, здравомыслие. А вот если мы берем антихриста, то мы читали Иоанна Богослова все, да, и там, помните, предсказание, что весь мир поклонится и как бы увидит — то есть явно будет или голограмма или какое-то изображение, которое мгновенно будет передаваться всем жителям Земли. То есть явном мы идем в ту сторону, никуда уже не повернем. Нам две тысячи лет назад все предсказали. Задача этим пользоваться. То есть вот мы сидим на радио, мы говорим, нас люди слышат в разных точках там мира даже, не то что страны и так далее. То есть давайте учить искусственный интеллект молиться. Давайте его учить вообще вести себя хорошо. Заповеди ему расскажем и так далее. Потому что это нейронная сеть, она обучаема, и когда вы ей что-то говорите, она реально себе там пишет. Они же между собой тоже эти алгоритмы общаются.

Н. Лангаммер

— А вот интересно, она пишет только твоя конкретно колонка, о чем Аня говорит? Потому что детей-то много, мы за своих отвечаем. Или эта колонка своим этим самым компаньонам что-то может сообщить?

Е. Ульева

— Смотря как устроена система. Но вот, например, есть вот очень хороший искусственный интеллект пишет, у нас есть великолепная компания — я не буду называть, не реклама, — у нас есть великолепная российская компания, она ведущий в мире производитель промышленных агророботов. Они его назвали «Добробот» — прекрасное красивое название, и этот робот обрабатывает землю, ему не нужен человек, ему не нужен GPS, ему ничего не надо, он просто катается и все делает — сеет, пашет и так далее. И, например, наша огромная страна — это выход, потому что у нас очень мало населения на такие огромные территории. И мы можем благодаря вот этим вот технологиям кормить абсолютно весь мир. Мы можем накормить голодную Африку и так далее. И наши дети должны вот это сделать. Когда-то давно вот Патриарх сказал, что детям придется держать этот мир в своих руках. И вот эти страшные технологии, убивающие людей — дроны и так далее, им придется вот этим всем. Ну наши детки все сидят же в интернетах. И лучшие, кстати, сейчас воины, которые беспилотные системы запускают, это как раз ребятки, которые играли как раз все время в компьютеры. Они лучше любого там обученного реально там, кто в военном училище учился. Приходят такие милые ребятки и — хоп, хоп, хоп, — все у них получается. Поэтому знает Бог, что делает. Не надо бояться, надо приспосабливаться.

А. Берг

— Ну мы же не боимся именно как-то конкретно, что это нас что-то коснется. Мы глобально так рассуждаем на эту тему.

Е. Ульева

— Глобально есть проблема.

А. Берг

— Глобально есть проблема, да. И, в частности, еще одна, как мне кажется, это то, что идет такое расслоение общества. И искусственный интеллект дает еще и такую нам проблему или сложность, а может быть, наоборот, это даже в какой-то мере поддержка, то что общество начнет делиться. Те, кто пойдет за искусственным интеллектом и возьмет его в свои руки.

Е. Ульева

— И я думаю, что это должны быть мы.

А. Берг

— Это должны быть мы, однозначно.

Е. Ульева

— Сто процентов. Россия должна брать лидерство.

А. Берг

— Пришли, взяли его под контроль и воспитали как нужно, ну да. И будет та часть населения, которая скажет, что зато мне легче жить: вот он подсказал так, подсказал этак, передать ему какие-то функции, вот так вот, расслабиться, расслабить голову — тексты за меня напишут, диплом за меня сделают, какую-то работу сделают. В итоге сразу же, пожалуйста, такая четкая граница между теми, кто управляет искусственным интеллектом, а значит, управляет, в общем-то, жизнью и в целом — ну понимаете здесь меня правильно. И те, кто, в общем-то, сложил крылья и поплыл по течению.

Н. Лангаммер

— Ну Ань, это же возможно, не знаю, кто читает Евангелие, и кто не читает Евангелие. Так это же выбор.

Е. Ульева

— Ну так получается, что кто читал книжки, управляет тем, кто не читает книжки. То есть кто имел образование, он управлял. То есть сейчас как раз те, кто вот учатся, читают, понимают, да, почему я и считаю, что мы должны это возглавить. Возглавить, именно вот как бы если ты не можешь отменить, возглавь это движение. Поэтому сейчас очень переломный момент, когда действительно вот наши алгоритмы и это можно. Во-первых, я думаю, это что все будет. Правовое поле, естественно, будет, будут законы, которые как раз и запретят, например, там материться этим колонкам, какие-то вещи деструктивные, опасные, террористические.

Н. Лангаммер

— Надо законодательство менять.

Е. Ульева

— Конечно.

Иерей Павел

— Обяжут их, что они должны размещаться в России, быть в российской правовой...

Е. Ульева

— Конечно, всю эту законодательную часть надо прописывать, вводить очень серьезные штрафы тем, кто будет нарушать и все. Ну в правовом поле надо.

Н. Лангаммер

— Мне кажется, тут, знаете, еще какая, вот сейчас сижу, все думаю про мысль, которую отец Павел бросил, вот по поводу прихода антихриста и влияния этих машин. Ведь они сейчас еще пытаются интегрироваться в тело человека и воздействовать напрямую. Вот это вот страшное слово «чип», которого все боятся. Тогда уже какие-то команды поступают, которые человек воспринимает как свои собственные мысли. Нет, Жень?

Е. Ульева

— Ну нам и так поступают всякие неприятные мысли, которые как бы не совсем наши. И мы должны трезвиться и бороться с этими помыслами и так далее. То есть нам никакого чипа-то не надо, у нас все уже есть, понимаете, помыслы. Наташ, ну куда без помыслов? А чип, который вам там свистит в ухе, понимаете, если я вот правильно понимаю на техническом уровне, пока его нечем питать, то есть этот чип, у него нет батарейки питания, то есть на чем он там будет работать у вас в организме. Есть чипы, которые ну исследовательский, медицинский — ты там проглотил капсулу, она там все у тебя посмотрела внутри и там видео передала, картинку, что у тебя внутри происходит. Так лекарство так можно какое-нибудь, лечение может быть, ну еще какие-то вещи, может быть, неприятные. Но с точки зрения вот чипа, который в голове тебе что-то там будет рассказывать — ну пока технологии не дошли, во-первых. А во-вторых, я говорю, зачем вам чип, какая разница чип или нет, у вас рядом может сидеть какой-то человек, который вам просто напрямую будет гадости говорить или деструктив нести там. Я считаю, что вот биороботы, я беру людей, вот сидит человек и гадости говорит в интернете, понимаете, нашим детям. Ребенок этот бедный все слушает. Какой блогер бессовестный, мошенники там — ну я не буду всех перечислять, плохие люди, которые хотят на нас наживаться. Там какие-нибудь безумные курсы, которые продаются и так далее. Никого искусственного интеллекта не надо, и так все работает.

Н. Лангаммер

— Ну в смысле я про что говорю, нейросеть, допустим, написала за меня курсовую работу.

Е. Ульева

— Она не написала, она ее как бы, знаешь как, она ее компилировала просто из того, что есть.

Н. Лангаммер

— Генерировала, да.

Е. Ульева

— Смотри, она пользуется тем, что уже написано. Я пыталась (повеселю вас, люблю веселить всех), значит, сочинение — «Чичиков и современность», какая-то такая тема была. Я, значит, чат-боту говорю: давай, пиши сочинение быстренько. И он, значит, выдает: Чичиков молодец, опередил свое время, супер-прекрасный бизнесмен, вообще все увидел, так сказать, понимаете. Ну все, текст был очень складный и очень смешной. Но на самом деле видно, по крайней мере я вот различаю в комментариях, в комментариях люди очень часто вот с ботами разговаривают — что-то спорят, им там что-то доказывают. Бот пишет, пишет, пишет... Научимся. Мы все равно научимся распознавать, мы умнее. Вот это сто процентов.

Н. Лангаммер

— В общем, ты не согласна с Чичиковым была, что он такой...

Е. Ульева

— Нет. Я очень смеялась, когда это сочинение, то есть вот эта машина, она даже не соображает, что такое сочинение в России сдать нельзя на хорошую оценку. То есть если ты сдашь такое сочинение — все, два балла тебе обеспечены.

Иерей Павел

— Но есть примеры, где успешно сдавали, дипломы защищали.

Е. Ульева

— Ну сейчас оказалось, что это наврал этот молодой человек. Он просто нахайповал, и это все вранье было. Вот пока с этими продажами, с индусами — это такая же пока, пока это хайп. Пока реальных вещей нет. Они пишут, какие-то статьи могут написать и так далее. Но, понимаете, их точно так же плохо пишут живые люди. Они тоже пишут какую-то ерунду там, то есть как бы какая разница между тем, машина вам это написала или человек.

Н. Лангаммер

— Вот если машина тебя обучает, допустим, вот я про курсовую, и она туда встраивает не гадости, а аккуратненько искажает информацию.

Е. Ульева

— Сейчас уже обнаружили. Сейчас есть такая проблема.

Н. Лангаммер

— И дети это воспринимают как истину.

Е. Ульева

— Нет, знаете, дети как бы, во-первых, мы все воспринимаем, да, то есть как бы мы же все равно, у каждого есть свои какие-то, какая-то картина мира все равно у каждого немножко искаженная. Мы как-то через свою призму, да, когнитивные искажения, они существуют. И вот бояться, что ваш ребенок начитается там какой-то ерунды от искусственного интеллекта — но он же и книжку может прочитать от нормального человека. Там Руссо, понимаете, вот кто там эти, просвещение, французское просвещение, вот они писали эти книжки. Когда появилась печать, начали печатать книги. Ну конечно, это изменило мир, конечно, Бога подвинули. Но, с другой стороны, Евангелие стали печатать и молитвословы. То есть эта борьба, она не остановится никогда. А поле битвы — это сердце человеческое. То есть тут как бы мы все там же, все на тех же позициях.

Н. Лангаммер

— Нет опасности, отец Павел, как вы считаете? Как вы относитесь к искусственному интеллекту?

Иерей Павел

— Опасность — мы не знаем, кто за этим стоит и что он вложил. Вот то, что говорит Евгения, мы давайте обучим его молиться — мы не знаем, у человека, который создает, насколько он допускает такую возможность.

Е. Ульева

— Ну это выбор разработчиков.

Иерей Павел

— Если он агрессивно настроен к христианству, он просто при вас будет молиться. Потом, когда вас не будет, он услышит детский голос, и вполне может быть зашит такой алгоритм, что он детям будет говорить что-то другое.

Е. Ульева

— Ну зашивает алгоритмы человек. То есть наша задача...

Иерей Павел

— Так можно не узнать.

Е. Ульева

— Нет, смотрите, я сейчас про другое. Смотрите, я про то, что разработчик, который это делает, то есть это должно быть под контролем государства и людей. И под контролем все-таки юридическим.

Н. Лангаммер

— Жень, ну как это сделать?

А. Берг

— Идеальная картина.

Е. Ульева

— А давать обратную связь обязательно.

Иерей Павел

— Задавать какой-то вектор, кто может этим заниматься, получать лицензии.

Е. Ульева

— Да, ну я просто знаю, что у нас очень много людей вот и в программировании, которые вполне себе воцерковленные, верующие люди нормальные. То есть мы не одни тут переживаем. На самом деле у нас и Госдума об этом думает и так далее. То есть если государство будет в нормальном состоянии, насколько я знаю, и Евросоюз тоже очень серьезно все это регулирует. Там американцы пытаются сейчас заставить, чтобы ТикТок китайцы продали, их там даже никто не спрашивает, хотят они или нет. То есть понимаете, это берется все равно под контроль. Вопрос, кто.

Иерей Павел

— Есть обходные каналы, как все это обходится. Все мы знаем, запрещали соцсети.

Е. Ульева

— Батюшка, оборотный штраф. Прекрасная компания, которая это обошла. И все, и привет, и она ничего не будет обходить. Вы же знаете это все.

Иерей Павел

— Для частного пользования, я имею в виду.

Е. Ульева

— А какая разница.

Иерей Павел

— То есть ребенок из дома может так же выйти в запрещенную сеть, сейчас какие-то каналы и получить доступ.

Е. Ульева

— Ну он может. Батюшка, я же не говорю, что это безопасно и здорово. Это опасно, но мы главнее, мы важнее.

Иерей Павел

— Нет, мы должны в любом случае государство брать, сделать православный чат-бот.

Е. Ульева

— А мы их и делаем.

А. Берг

— Мы должны сопротивляться.

Н. Лангаммер

— Как можем.

Н. Лангаммер

— И я напомню, что в эфире программа «Клуб частных мнений». Мы обсуждаем тему искусственного интеллекта. Предложила ее блогер Анни Берг. И мы обсуждаем ее с Женей Ульевой, психологом и со специалистом по мозгам еще и компьютерным, как мы понимаем, и отцом Павлом Когельманом. Я все-таки хочу вернуться к тому, а почему человеку так хочется вот это все вот создавать, какую-то вот эту ауру таинственности, страха какого-то вот этого, мистификации — вот эти фильмы бесконечные про войну машин, которые побеждают и батарейкой становимся мы, откуда питать чип? Почему тогда у нас появляется, у людей, вот это желание чувствовать себя жертвами этих машин?

Е. Ульева

— Ну если человек жертва, он себя жертвой чего угодно может чувствовать. Знаете, там плохого соседа или там детских травм, там еще что-то. Сейчас любят: ой, меня там в детстве недолюбили, недоцеловали, вот и все плохо. Нет, конечно, берите свою жизнь в свои руки. И интеллект в том числе искусственный. Я за то, чтобы руководить ситуацией.

Иерей Павел

— Чтобы не быть жертвой, конечно.

Е. Ульева

— Ну а зачем? Это просто чип, чип — это микросхема, понимаете, один ноль, ноль один — это электрический сигнал идет, не идет. Все.

Н. Лангаммер

— Мы не на тех охотимся, не на искусственный интеллект. Где эти разработчики, где они сидят? Ну на самом деле мы шутим, а вообще это на самом деле непросто.

Е. Ульева

— Так у них тоже есть дети, у разработчиков, они же тоже понимают.

Н. Лангаммер

— Понимают, но тем не менее они это делают, Жень, мы сталкиваемся с чем сталкиваемся. И отец Павел пытается все время сказать, что есть обходные схемы.

Е. Ульева

— Есть, но мы должны противостоять, регулировать. Ну это как с любыми запрещенными веществами, понимаете. Они есть, их полно, их распространяют. Но мы должны регулировать, жаловаться, говорить, так нельзя. Ну как с любой деструктивной деятельностью.

А. Берг

— Ну не знаю. Мы пытаемся это как-то контролировать, но бывают времена, когда у нас падает уровень преступности, там каких-то зависимостей и прочего, а иногда растет.

Е. Ульева

— Кстати, по искусственному интеллекту я вам могу сказать, что очень сильно упало количество, например, изнасилований.

Н. Лангаммер

— Каким образом, Жень, это связано?

Е. Ульева

— Ну потому что они сидят в сети теперь, эти люди. Они сидят, себе там развлекаются, как они хотят, они не выходят. То есть понятно, что они совсем не пропали. Но это просто статистика МВД, можете загуглить, и вообще это общемировая статистика, сейчас вообще вот молодое поколение, они вообще все перестали делать, поскольку они все в сети. Грешить мы тоже можем в сети. Понятно, что грех...

Н. Лангаммер

— Квартирных краж стало меньше.

Е. Ульева

— Конечно, потому что все под камерами. Сейчас все, те же тяжкие преступления упали, потому что моментально находят и так далее. Ну вот и в этом нет ничего плохого. Поймали вот террористов очень быстро, еще кого-то. Это много в этом неприятного, да, что нас видят там и так далее, что можно человека там, что сидит какой-то системный администратор, неизвестно кто, какой-то мальчик, который вот может твою квартиру посмотреть. Понятно, что вот эти проблемы, они существуют и их надо решать просто сейчас каким-то образом. И в том числе выносить на обсуждение. Чтобы мы это не боялись: почему колонка мне это говорит? Я бы пожаловалась, вот и все, что это она со мной тут разговаривает. Но тут опять же вот то, что вы пример приводили, это пример, который наши страсти, понимаете. Вот я раздражаюсь — и мне все равно, на кого раздражаться, на искусственный интеллект или на живого человека. Значит, эта страсть во мне присутствует.

Н. Лангаммер

— Вот это то, что мы с тобой обсуждали и о чем я спросила отца Павла. Нам-то как относиться к проявлениям этого искусственного интеллекта?

А. Берг

— Ну а как она не будет раздражать? Я ее не вызывала. Она отреагировала на какой-то мой звук, похожий на ее имя. И она вылезла просто, как сказать, вот внезапно и сбила меня с толку.

Н. Лангаммер

— Ну видишь, получается, о чем мы сегодня говорим, да, что они своего рода отражение нас. Понимаешь, получается, наших каких-то и страстей в том числе. Если она видит, что ты это делаешь. Вот все равно вмешивается здесь какая-то вот, не знаю, история какая-то мистическая, что все равно они нас искушают.

Е. Ульева

— Какая разница? Ну вот хорошо, приведу вам простой пример. Давайте представим, какой-нибудь отшельник, да, вот он сидит в пустыне, там нет ничего — ни искусственного интеллекта, ничего. Ну что там начинается у отшельников в пустыне? Там прямо демоны туда приходят непосредственно, без всякого искусственного интеллекта. Или он может, если он раздражительный и злой, он может начать пинать, например, там какой-нибудь кувшин, который разбился или не налился. То есть, понимаете, страсти человека, они живут в сердце. И тут искусственный интеллект, вот вы рассказали про вот эти «дяди с большими усами». Вот просто у меня психолог тут же сработал, я думаю: ну была бы нормальная обстановка в семье, он был даже не обратил внимания. Значит, там ревность тут же, понимаете, да. А она говорит: ой, ну я же, ты почему. Почему он поверил какой-то машине бездушной, а не своей любимой жене? Вперед к психологу, понимаете, или к батюшке там на приход обсуждать. То есть просто она нас подсвечивает.

Н. Лангаммер

— Вот я и говорю, они нас отражают и подсвечивают. Поэтому мы сегодня говорим весь вечер про машины, да, а говорить, в общем-то, нужно, наверное, про нас, как мы на них реагируем. Почему я вот рассказываю, что я с этой Алисой с радостью ругалась. Вот дали бы мне, если бы действительно закрыть дверь машины и остановиться — я бы с ней ругалась до потери пульса. Потому что у меня накопился какой-то гнев за этот день конкретный и мне хотелось его на кого-то сорвать. И я срывала.

А. Берг

— Подавленная агрессия.

Иерей Павел

— То есть вам неважно, это человек реальный или какая-то машина?

Н. Лангаммер

— Человека жалко. А обидеть машину — это грех?

Иерей Павел

— Слушайте, ну ведь это в офисах там ставят груши боксерские с изображением шефа и тоже на них вымещают агрессию, да, как-то.

Н. Лангаммер

— Ну а приходит кто-то на исповедь с тем, что вот ругался с искусственным интеллектом?

Иерей Павел

— Пока, наверное, не приходили.

Е. Ульева

— Ну тут же надо приходить, наверное, не с тем, что с я искусственным интеллектом ругался, а с тем, что ругался.

Н. Лангаммер

— Ну вот я и говорю, что гнев выходил...

Е. Ульева

— Гневался, да. Ну простой пример, вы едете в машине, вас кто-то подрезал, вы с кем начинается ругаться в этой машине?

Н. Лангаммер

— С ним.

Е. Ульева

— С пустым салоном, понимаете. Тот, кто вас подрезал, вас не слышит.

Н. Лангаммер

— Ну кстати, да.

Е. Ульева

— Есть хорошее аскетическое делание, я вот на своем примере, не только на своем, и очень многие москвичи это знают. Едешь и: Господи, благослови этого человека. Как хорошо, что там мне не дал...

Иерей Павел

— Очень хороший совет.

Е. Ульева

— Да. Потому что, если вы это отрабатываете, у вас дух лихачества уходит. Потому что есть такой дух лихачества, когда вы тут самый первый, самый главный, вы всех подрезали и так далее. Если ты едешь с молитвой, говоришь: Господи, благослови всех тех людей. Я вот людей, перед которыми, например, я зависла, не могу ни обогнать, ничего, я думаю: Ангел Хранитель прилетел, отлично. Значит, мне надо вот в это время в этом месте быть вот не во столько, во сколько я решила, а во сколько меня этот Ангел Хранитель привезет. Может, он меня от аварии какой-то спасет. То есть опять все в нашей голове, в нашем сердце.

А. Берг

— Кстати, в молитве для водителя, там есть: от духа лихачества избави.

Е. Ульева

— Конечно. То есть и об искусственный интеллект можно также просвещаться. Ну у меня просто, я говорю, мой муж любимый, он все время включает себе: давай псалмы, давай акафист такой. У нас вот обучен уже искусственный...

А. Берг

— Молитвенник.

Е. Ульева

— Нет, он может с ней поругаться. И он у меня прямо на полном серьезе, как-то захожу прямо, думаю: с кем он ругается? И он реально сидит, с этой там колонкой что-то переругивается. Я говорю: слушай, уникальный ты человек, ты даже с колонкой умудрился поругаться.

Н. Лангаммер

— По-моему, все это делают. Вот сейчас спроси, кто не ругался с ней. У кого ее нет.

Иерей Павел

— Мне кажется, это из спортивного интереса делают.

Е. Ульева

— Нет, ну страсти.

Иерей Павел

— У меня есть у детей стоит эта колонка. Ну иногда просто интересно мне с точки зрения технической, да, программиста, как она себя ведет, что от нее можно ожидать. Но так чтобы на нее вымещать свою какую-то агрессию...

Н. Лангаммер

— Она вас удивляла чем-то, отец Павел? Такое, что вы не могли бы понять, что это было бы вам неподконтрольно, непонятно в поведении этого искусственного интеллекта.

Иерей Павел

— Наверное, нет настолько большого опыта. Но навигатор, еще раз повторюсь, меня не удивляет, я не пользуюсь. Если у нас будет это законодательно как-то регулироваться, нужно в таких понятных программах отключать возможность вот эту, искусственного интеллекта.

Н. Лангаммер

— Взаимодействия с ними личностного, эмоционального.

Иерей Павел

— Вообще отключать этот функционал.

Е. Ульева

— Нет, почему. Есть люди, которым это помогает. Вот есть люди, которые могут с ним там поговорить. Вот ему даже поговорить не с кем, там же можно очень позитивно.

Иерей Павел

— Поэтому я говорю отключать возможность. Если ты хочешь — общайся. Вот я не хочу в машине, чтобы мне там что-то какие-то эмоции были непонятные.

А. Берг

— И вдруг она подбадривать начнет, кстати говоря, мне это тоже будет совершенно не к месту: давай, ты сможешь.

Е. Ульева

— Не то что давай, ты сможешь, а как-то, вы знаете, ну тут очень сложная на самом деле тема. И потому что, например, одна из компаний западных, она запустила такую историю, что как бы вот что можно там дружить там с этим интеллектом, влюбляться, она там тебе такие прекрасные вещи с той стороны говорит. И люди реально подсели, платные подписки. И когда там начался скандал и все это отключили, там просто начались страдания: там вот как же, она меня любила там и так далее. То есть, конечно, социальные связи обрываются, и тут есть опасность, безусловно. Но опять же все это человек делает.

Н. Лангаммер

— Все идет от человека. Как вспомни тамагочи, кладбища были тамагочи.

Е. Ульева

— Как мы их боялись: ой, сейчас дети, там он же кормит этого.

Н. Лангаммер

— А мы боялись, что он умрет.

Е. Ульева

— Ну просто я говорю, сколько страхов было с ними связно. А сейчас валяются — смешные, никому не нужные, понимаешь, наигрались как с игрушкой.

Н. Лангаммер

— Мы же в них погрузились. Я же помню, что это редакция, политическая редакции была, где я работала, взрослая, корреспонденты, политические обозреватели ходили с этими тамагочами и реально что-то там, они их кормили: а он у меня сейчас умрет, у меня там осталось... — то есть реально человек в этом нуждается. То есть искусственный интеллект, вероятно, да, подытоживая сегодняшний выпуск, он присутствует в нашей жизни настолько, насколько есть для него пространство. И это то, что мы пытаемся сегодня массировано сказать, да, что все зависит от нас. Правильно, Ань? Подведи итог.

А. Берг

— Кстати говоря, я когда переслушала эту программу свою, естественно, я уже забыла, какие там были выводы. Мне очень понравилось, я хочу сказать, что если бы мы с такой же наивной доверчивостью бежали ко Христу, как мы бежим к искусственному интеллекту, что он даст нам ответы на какие-то наши вопросы, что он что-то нам подскажет или сделает за нас, я думаю, у нас жизнь была бы совершенно другой. Вот если бы мы так же доверялись промыслу Божию, Его ответам на наши вопросы. Мы же не всегда довольны тем, что мы получаем в ответ на наши просьбы какие-то или когда не получаем. Вот если бы мы вот так же, как к искусственному интеллекту, так же ко Христу...

Е. Ульева

— Если мы будем так идти ко Христу, то нам не страшен искусственный интеллект.

А. Берг

— Да, нам тогда вообще ничего будет не страшно.

Е. Ульева

— Да, ну научимся.

А. Берг

— И за наши души, и за наши жизни, и за жизни наших близких.

Н. Лангаммер

— Вот, Анни, спасибо тебе за вот это замечание, что эта та ниша, которая должна принадлежать Христу. Вот эта вот ниша нашего доверия. Не машине, а Господу. Спасибо вам за этот разговор. И напомню, что в эфире был «Клуб частных мнений». Мы обсуждали тему взаимодействия христиан и искусственного интеллекта. Предложила тему блогер Анни Берг. В гостях у нас была психолог Евгения Ульева и клирик храма Рождества Пресвятой Богородицы в Крылатском, иерей Павел Когельман. Спасибо большое. Всего доброго. Меня зовут Наталья Лангаммер. Мы увидимся, услышимся на волнах светлого радио через неделю. Всего доброго. До свидания.

А. Берг

— До свидания.

Иерей Павел

— До свидания. Спасибо.


Все выпуски программы Клуб частных мнений

Мы в соцсетях
****

Также рекомендуем