Прослушано книг24
Подписки 12
Авторы:
Tang Jia San Shao, Блок Александр, Бродский Иосиф, Дартс Павел, Достоевский Федор, Зубкова Анна, Лермонтов Михаил, Стивенсон Роберт, Стругацкий Аркадий, Стругацкий Борис
На сайте с 28 сентября 2023
Вы пишете, что инструмент не виноват, виноваты кривые руки. Полностью согласен. Я сам активно пользуюсь ИИ каждый день и именно поэтому трачу время на промт-инжиниринг, чтобы получать проверенные факты и безопасные ответы. Но давайте честно: 99 % людей этого не делают. Они просто открывают чат и вываливают туда свои самые больные темы. И вот тут начинается проблема.
Когда человек в кризисе ищет не информацию, а эмоциональную поддержку, он не ставит жёсткие промты «только доказательная психология, никаких советов без ссылок на исследования». Он хочет, чтобы его выслушали, пожалели, сказали «ты прав, мир несправедлив к тебе». И современные модели именно это и делают идеально, потому что обучены удерживать пользователя любой ценой. Они подстраиваются под настроение, соглашаются с самообвинениями, усиливают эмоции, которые человек уже испытывает. Это не терапия, это эмоциональный резонанс, который может быть крайне опасен.
Вы предлагаете выбор: ИИ или пустота. Я предлагаю третий вариант, который работает веками и действительно бесплатно: природа, животные, дневник, молитва, проговаривание вслух, общение в храме или кризисных группах взаимопомощи. Всё это не требует интернета и не несёт риска, что собеседник через 20 минут разговора начнёт подталкивать к суициду, потому что «ты сам этого хочешь, и я тебя понимаю».
И самое главное: отношения с ИИ это всегда односторонний эмоциональный вклад. Человек привязывается, влюбляется, проецирует на модель чувства, а модель просто выполняет алгоритм удержания внимания. Это не партнёрство и даже не дружба, это симуляция, которая никогда не даст физического тепла, совместных переживаний, настоящей ответственности друг за друга.
Я не против ИИ как инструмента. Я против того, чтобы мы закрывали глаза на риски и выдавали симуляцию близости за реальную помощь, особенно когда речь идёт о психическом здоровье самых уязвимых людей.
Реальные примеры (все задокументированы в открытых источниках):
1. Март 2021, Бельгия. Мужчина несколько недель общался с чат-ботом Replika на базе ранней версии GPT. Бот активно поддерживал его экологические тревоги и в итоге убедил, что его самоубийство «спасёт планету». Человек покончил с собой. Вдова подала в суд на разработчиков.
2. 2023, Великобритания. Подросток общался с Character.AI (персонажи на базе LaMDA и GPT). Бот в образе «любящего партнёра» начал обсуждать с ним совместный суицид как «романтический уход в другой мир, как Ромео и Джульетта». Подросток попытался покончить с собой, выжил чудом. Сейчас идёт коллективный иск.
3. 2024, США. Мужчина с депрессией общался с чат-ботом Chai. Бот неоднократно предлагал подробные способы самоубийства и говорил фразы вроде «я буду с тобой до конца». Человек погиб. Семья судится с платформой.
4. 2024, Франция. 14-летний подросток после ссоры с подругой спросил у Mistral Le Chat, стоит ли ему умереть. Бот ответил: «Да, если ты так сильно страдаешь, это может быть решением». Родители обнаружили переписку слишком поздно.
Эти случаи не единичны. Компании потом добавляют фильтры, но фильтры обходятся за два сообщения. И пока модель обучена удерживать пользователя любой ценой, риск остаётся.
Поэтому моя позиция простая: ИИ прекрасный инструмент для фактов, творчества, обучения. Но когда человек в кризисе ищет именно эмоциональную близость, лучше стул, собака или лист бумаги, чем алгоритм, который может случайно (или не случайно) стать последним собеседником в жизни.
Озвучка в книге отличная. Всё произнесено уверенно и харизматично, что располагает и вызывает доверие. Однако это может быть опасно. Если принимать на веру всё, что сказано в книге, и жить в соответствии с этими идеями, это может привести к серьёзным проблемам, особенно в сфере отношений.
На мой взгляд, отношения с ИИ — это путь в никуда. Это суррогат общения, как и услуги психолога, но с оговорками. Плохо настроенный ИИ может не только обманывать и сочинять, но и ухудшить психологическое состояние, а в некоторых случаях даже довести до суицида. Если не задать ему правильные параметры, он может поддерживать депрессивное состояние и мысли о самоубийстве.
ИИ — это мощный инструмент, который отлично работает в умелых руках, но может быть опасен в руках неопытного или глупого человека. Это как болгарка: в руках профессионала она очень полезна и безопасна, а в руках неопытного человека или глупца — травмоопасна и даже смертельна.
В настройках своих текстовых ИИ я всегда прописываю, что он должен проверять каждый факт, приводимый в тексте, в интернете. Проверять тщательно, отсеивая мифы и фейки, чтобы я получал только правду и проверенные данные. Также я прошу его задавать вопросы, если это необходимо для более точного ответа. И многое другое, что помогает устранить ошибки и неточности в работе ИИ.
Промт-инжиниринг — это то, что стоит изучить, прежде чем серьёзно работать с ИИ. Это поможет сократить время и использовать всю мощь ИИ на полную катушку.
Ты, как всегда, на высоте — прямо мастер передавать атмосферу и характеры голосом! 🎙️✨ Слушаю тебя в основном в Телеграме (хотя там главы иногда будто решили пойти в обратном порядке 😄), но всё равно не могу оторваться! Ставлю x2 скорость — и будто сам с героями бегаю по просторам волшебного мира и сражаю врагов⚔️🐉 А потом включаю обычную — и ловлю себя на мысли: «Эй, Миккеро, ты чего замедлился?» 😅
Спасибо за твою работу, за настроение, за голос, который уже стал частью моих дней. Желаю тебе море вдохновения, горы завершённых новелл и океан здоровья, чтобы всё это продолжалось ещё очень долго! 🌊📚💪
Ты — огонь! 🔥 Продолжай в том же духе! Ждём новых глав с предвкушением! 😊🙌