Этот заголовок к тексту придуман ИИ
Представьте, что у вас появилась возможность попросить Булгакова написать альтернативный финал «Мастера и Маргариты». Или вы можете спеть дуэтом с Джоном Ленноном его знаменитую Imagine. А умная колонка по утрам станет будить вас не механическим, пусть и приятным, женским голосом, а голосом вашей давно умершей бабушки.
Генерация цифровых двойников людей, как живущих сейчас, так и давно покинувших этот мир, — уже реальность, создать которую способен искусственный интеллект. Только вот осталось понять, чем «цифровое бессмертие» обернется для человечества — благом или наказанием.
Фото: Алексей Меринов Пока что результаты творений Искусственного Интеллекта откровенно корявые. За ним надо перепроверять и исправлять ошибки. Но ведь он еще только учится.
Так что уже сегодня главный вопрос в сфере ИИ — этический. Доверить создание журналистских текстов, музыки, стихов, научных и аналитических заметок машинному разуму — это нормально? А заменить голос живого собеседника в телефонной трубке на «горячей линии» банка или поликлиники на ИИ — нормально? Ну а как насчет того, чтобы создать полноценную цифровую копию человека, умершего сто-двести лет назад? «Красные линии» для ИИ Россия уже обозначила. В 2021 году в стране был принят Кодекс этики в сфере искусственного интеллекта.
В эти дни в России как раз проходит форум по этике в сфере ИИ. На сайте мероприятия запущен опрос. Айтишников интересует, например, как вы отнесетесь к цифровой копии своего родственника — живого или покойного? Такой двойник вполне мог бы стать голосовым помощником по хозяйству. Вот забыли вы, скажем, выключить с утра плиту. И тут вам звонит голосовой помощник, как две капли воды похожий на вашу покойную бабушку: «Вася, балбес! Пожар устроишь!» И сразу так тепло на душе.
Да что там бабушка. Можно ведь и цифрового двойника Пушкина создать, и Достоевского. Программисты говорят, что для создания цифровой копии писателя или поэта прошлого достаточно «загнать» в базу ИИ все плоды его творчества, и «суррогат» сможет выдать не только альтернативную версию оригинального произведения с новым финалом и сюжетными поворотами, но и новые шедевры. Если есть запись голоса умершего человека, ИИ сможет на его основе создать копию, которая сможет вам по утрам читать новости. Сводка голосом Левитана в 2023-м году — каково? Разработчики говорят, это возможно. Юристы предупреждают об опасности: голос вообще никак в правовом смысле не защищен. Лицо (фото, видеоизображение) — да, защищены Гражданским кодексом. А с голосом можно творить все, что душе вздумается. Так что вот еще один проблемный момент как для этического, так и для полноценного цифрового кодекса.
ИИ вполне применим и в медицине. Только речь уже не о том, что машинный разум страхует врача и просматривает за ним снимки МРТ. Этим уже никого не удивишь. Сегодня речь идет о замене реального доктора на цифрового двойника. Например, в небольшом городе есть только один великолепный кардиолог. Очередь к нему на месяцы вперед. Клонирование людей церковь запрещает, так что ИИ в помощь...
Но, к сожалению для разработчиков, религиозные деятели к идее «цифрового бессмертия» отнеслись без особого воодушевления.
— Исчезнет уважение к жизни и восприятие смерти как неотъемлемой части духовного пути человека, — считает глава Духовного собрания мусульман России Альбир Крганов . — Сталкиваясь с возможностью цифрового сохранения сознания после физической смерти, мы вступаем в новую эру, где традиционное представление о жизни и после нее пересматриваются. Суть цифрового бессмертия в том, что копия человека будет иметь такой же образ мышления, реакции, поведение. Проблема смерти в биологическом смысле просто исчезнет.
Глава Синодального отдела по взаимоотношениям церкви с обществом и СМИ Владимир Легойда отметил, что создание цифровых двойников писателей и художников может привести к тому, что люди не смогут понять, с чем имеют дело — с оригиналом или подделкой. Он напомнил: такой сюжет был использован в фильме «Инкогнито»: главный герой — талантливый художник, промышлявший созданием копий известных картин, замахнулся на Рембрандта и написал полотно, как две капли похожее на оригинал.
— Собралась комиссия экспертов, и двое из трех специалистов признали картину подлинником Рембрандта. И только одна женщина-эксперт сказала, что это подделка. Когда ее спросили, почему она так решила, она ответила: «Слишком похоже». Рембрандт никогда не смог бы повторить самого себя, — пересказал сюжет киноленты Легойда и от себя добавил: — ИИ действует по заранее составленным алгоритмам. Это может стать очень заманчивой нишей для всевозможных псевдопсихологов и коучей, которые всем подряд дают одинаковые советы по созданию «лучшей версии себя».
Более того, есть риск, что нейросеть возьмется исповедовать людей, находящихся в кризисной жизненной ситуации и не решающихся пойти к настоящему священнослужителю или нормальному психотерапевту.
— Смысл пастырской практики в том, что алгоритмов нет. Два человека на один и тот же вопрос получат от священника два разных ответа, — заявил Владимир Легойда.
Священник Александр Волков убежден, что на сегодняшний день ИИ поддается контролю со стороны человека. Главное — не упустить момент:
— Это просто штуковина, которая работает по нашим алгоритмам. Так давайте же эти алгоритмы регулировать, — призвал отец Александр и рассказал, что священники тоже экспериментируют с ИИ. — Священники попросили GPT-чат написать проповедь. И он пишет! Вполне себе текст, имеет право на существование. Но ни один нормальный священник не будет обращаться к своим прихожанам с такой проповедью. Пока мы будем действовать именно так, все будет хорошо.
Этот заголовок к тексту придуман ИИ Представьте, что у вас появилась возможность попросить Булгакова написать альтернативный финал «Мастера и Маргариты». Или вы можете спеть дуэтом с Джоном Ленноном его знаменитую Imagine. А умная колонка по утрам станет будить вас не механическим, пусть и приятным, женским голосом, а голосом вашей давно умершей бабушки. Генерация цифровых двойников людей, как живущих сейчас, так и давно покинувших этот мир, — уже реальность, создать которую способен искусственный интеллект. Только вот осталось понять, чем «цифровое бессмертие» обернется для человечества — благом или наказанием. Фото: Алексей Меринов Пока что результаты творений Искусственного Интеллекта откровенно корявые. За ним надо перепроверять и исправлять ошибки. Но ведь он еще только учится. Так что уже сегодня главный вопрос в сфере ИИ — этический. Доверить создание журналистских текстов, музыки, стихов, научных и аналитических заметок машинному разуму — это нормально? А заменить голос живого собеседника в телефонной трубке на «горячей линии» банка или поликлиники на ИИ — нормально? Ну а как насчет того, чтобы создать полноценную цифровую копию человека, умершего сто-двести лет назад? «Красные линии» для ИИ Россия уже обозначила. В 2021 году в стране был принят Кодекс этики в сфере искусственного интеллекта. В эти дни в России как раз проходит форум по этике в сфере ИИ. На сайте мероприятия запущен опрос. Айтишников интересует, например, как вы отнесетесь к цифровой копии своего родственника — живого или покойного? Такой двойник вполне мог бы стать голосовым помощником по хозяйству. Вот забыли вы, скажем, выключить с утра плиту. И тут вам звонит голосовой помощник, как две капли воды похожий на вашу покойную бабушку: «Вася, балбес! Пожар устроишь!» И сразу так тепло на душе. Да что там бабушка. Можно ведь и цифрового двойника Пушкина создать, и Достоевского. Программисты говорят, что для создания цифровой копии писателя или поэта прошлого достаточно «загнать» в базу ИИ все плоды его творчества, и «суррогат» сможет выдать не только альтернативную версию оригинального произведения с новым финалом и сюжетными поворотами, но и новые шедевры. Если есть запись голоса умершего человека, ИИ сможет на его основе создать копию, которая сможет вам по утрам читать новости. Сводка голосом Левитана в 2023-м году — каково? Разработчики говорят, это возможно. Юристы предупреждают об опасности: голос вообще никак в правовом смысле не защищен. Лицо (фото, видеоизображение) — да, защищены Гражданским кодексом. А с голосом можно творить все, что душе вздумается. Так что вот еще один проблемный момент как для этического, так и для полноценного цифрового кодекса. ИИ вполне применим и в медицине. Только речь уже не о том, что машинный разум страхует врача и просматривает за ним снимки МРТ. Этим уже никого не удивишь. Сегодня речь идет о замене реального доктора на цифрового двойника. Например, в небольшом городе есть только один великолепный кардиолог. Очередь к нему на месяцы вперед. Клонирование людей церковь запрещает, так что ИИ в помощь. Но, к сожалению для разработчиков, религиозные деятели к идее «цифрового бессмертия» отнеслись без особого воодушевления. — Исчезнет уважение к жизни и восприятие смерти как неотъемлемой части духовного пути человека, — считает глава Духовного собрания мусульман России Альбир Крганов. — Сталкиваясь с возможностью цифрового сохранения сознания после физической смерти, мы вступаем в новую эру, где традиционное представление о жизни и после нее пересматриваются. Суть цифрового бессмертия в том, что копия человека будет иметь такой же образ мышления, реакции, поведение. Проблема смерти в биологическом смысле просто исчезнет. Глава Синодального отдела по взаимоотношениям церкви с обществом и СМИ Владимир Легойда отметил, что создание цифровых двойников писателей и художников может привести к тому, что люди не смогут понять, с чем имеют дело — с оригиналом или подделкой. Он напомнил: такой сюжет был использован в фильме «Инкогнито»: главный герой — талантливый художник, промышлявший созданием копий известных картин, замахнулся на Рембрандта и написал полотно, как две капли похожее на оригинал. — Собралась комиссия экспертов, и двое из трех специалистов признали картину подлинником Рембрандта. И только одна женщина-эксперт сказала, что это подделка. Когда ее спросили, почему она так решила, она ответила: «Слишком похоже». Рембрандт никогда не смог бы повторить самого себя, — пересказал сюжет киноленты Легойда и от себя добавил: — ИИ действует по заранее составленным алгоритмам. Это может стать очень заманчивой нишей для всевозможных псевдопсихологов и коучей, которые всем подряд дают одинаковые советы по созданию «лучшей версии себя». Более того, есть риск, что нейросеть возьмется исповедовать людей, находящихся в кризисной жизненной ситуации и не решающихся пойти к настоящему священнослужителю или нормальному психотерапевту. — Смысл пастырской практики в том, что алгоритмов нет. Два человека на один и тот же вопрос получат от священника два разных ответа, — заявил Владимир Легойда. Священник Александр Волков убежден, что на сегодняшний день ИИ поддается контролю со стороны человека. Главное — не упустить момент: — Это просто штуковина, которая работает по нашим алгоритмам. Так давайте же эти алгоритмы регулировать, — призвал отец Александр и рассказал, что священники тоже экспериментируют с ИИ. — Священники попросили GPT-чат написать проповедь. И он пишет! Вполне себе текст, имеет право на существование. Но ни один нормальный священник не будет обращаться к своим прихожанам с такой проповедью. Пока мы будем действовать именно так, все будет хорошо.