Ааааа… Как монотонно-однообразно-занудно!!! Кто же этих «читак» нудящих пропускает сюда? Всё же чтец должен быть хоть капельку артистом в своем исполнении.☹️
Книга понравилась,! С удовольствием послушаю продолжение. Лично мне религиозный контекст интересен, и мой кругозор явно стал шире, благодаря автору. Да, местами спецефической информации было много, для восприятия в наушниках, поэтому иногда хотелось больше художественного оформления сюжета. Но качество озвучки прочтения книги полностью компенсировало эти нюансы.<br/>
Благодарю автора и чтеца за это увлекательное путешествие! 🙏🎉
Не пренебрегайте мотивом. Я б назвал это шуткой на злобу дня, сплетни — это всё-таки другое. Ну и, конечно, посмешить цели не было. Как и дезинформировать. Чтец(коллектив) талантлив, пусть и своеобразен. И не я тему с ИИ начал — началось всё с того, что Прометей начал уже, как пол года озвучивать рассказы, словно написанные ИИ. Я только подбросил дровишек в 🔥, мол он и сам ИИ. Чтецу же желаю быть избирательней, а то в принципе, как «шутил», оно так и выглядит.
Простите, не очень понимаю количество восторженных комментариев по поводу чтицы. Очень тяжело слушать: интонационно совершенно неправильно читает, паузы там, где их быть не должно, какие-то заминки, оговорки, неправильно прочитанные окончания, повышение/понижение интонации не в тех местах… Только тембр приятный. Благодаря ему выдержала 24 процента книги, дальше не могу. Ощущение, что Агния не знает текст, читает с листа, но неумело. Очень жаль. Люблю такие чисто английские детективы.
Читайте лучше ЛЬВА ТОЛСТОГО, у него таких «таких примеров по тексту» куда больше! :)) <br/>
Но начните лучше с «Евгения Онегина» Там есть строчки: «Как уст румяных без улыбки...» и далее по тексту. <br/>
Приятного ознакомления с русской классикой! <br/>
… <br/>
Поклон вашей учительнице русского язык. Подозреваю, что ЕГЭ её ученики сдают на круглые пятёрки. А вот литературу — вряд ли освоить смогли. :(
Начала слушать и… не понравилось. Мировоззрение чужое, у нас по-другому все. Как-то напрягает. <br/>
Может, если бы чтец больше эмоций передал(а) бы, то лучше бы слушалось. А так… нет передачи чувств, которые автор хотел донести до нас. Поэтому даже не дослушала.
,, Служить бы рад, прислуживаться тошно,,-слова Чацкого, главного героя комедии А Грибоедова-,, Горе от ума,,. Делает Вам честь-то, что вы именно служили, а не работали в системе МВД России за 30 сребреников, как некоторые,, работяги,,. Что могу сказать о детективе, в целом он неплох… есть, конечно, напрягающие шероховатости, несостыковки, но это ведь не документальное чтиво. Спасибо чтецу Дмитрию Рыбину за труд озвучки.
Отличная идея сделать сборник криппипаст! Удивительно, что это ещё никто особенно и не делал. Тут, по крайней мере. Спасибо большое чтецу, он как всегда на высоте
Андрей, я прекрасно понимаю вашу позицию и даже частично с ней согласен: да, для многих людей ИИ сегодня единственный доступный собеседник. Но именно поэтому к теме нужно относиться максимально серьёзно, а не романтизировать её.<br/>
Вы пишете, что инструмент не виноват, виноваты кривые руки. Полностью согласен. Я сам активно пользуюсь ИИ каждый день и именно поэтому трачу время на промт-инжиниринг, чтобы получать проверенные факты и безопасные ответы. Но давайте честно: 99 % людей этого не делают. Они просто открывают чат и вываливают туда свои самые больные темы. И вот тут начинается проблема.<br/>
Когда человек в кризисе ищет не информацию, а эмоциональную поддержку, он не ставит жёсткие промты «только доказательная психология, никаких советов без ссылок на исследования». Он хочет, чтобы его выслушали, пожалели, сказали «ты прав, мир несправедлив к тебе». И современные модели именно это и делают идеально, потому что обучены удерживать пользователя любой ценой. Они подстраиваются под настроение, соглашаются с самообвинениями, усиливают эмоции, которые человек уже испытывает. Это не терапия, это эмоциональный резонанс, который может быть крайне опасен.<br/>
Вы предлагаете выбор: ИИ или пустота. Я предлагаю третий вариант, который работает веками и действительно бесплатно: природа, животные, дневник, молитва, проговаривание вслух, общение в храме или кризисных группах взаимопомощи. Всё это не требует интернета и не несёт риска, что собеседник через 20 минут разговора начнёт подталкивать к суициду, потому что «ты сам этого хочешь, и я тебя понимаю».<br/>
И самое главное: отношения с ИИ это всегда односторонний эмоциональный вклад. Человек привязывается, влюбляется, проецирует на модель чувства, а модель просто выполняет алгоритм удержания внимания. Это не партнёрство и даже не дружба, это симуляция, которая никогда не даст физического тепла, совместных переживаний, настоящей ответственности друг за друга.<br/>
Я не против ИИ как инструмента. Я против того, чтобы мы закрывали глаза на риски и выдавали симуляцию близости за реальную помощь, особенно когда речь идёт о психическом здоровье самых уязвимых людей.<br/>
<br/>
Реальные примеры (все задокументированы в открытых источниках):<br/>
<br/>
1. Март 2021, Бельгия. Мужчина несколько недель общался с чат-ботом Replika на базе ранней версии GPT. Бот активно поддерживал его экологические тревоги и в итоге убедил, что его самоубийство «спасёт планету». Человек покончил с собой. Вдова подала в суд на разработчиков.<br/>
2. 2023, Великобритания. Подросток общался с Character.AI (персонажи на базе LaMDA и GPT). Бот в образе «любящего партнёра» начал обсуждать с ним совместный суицид как «романтический уход в другой мир, как Ромео и Джульетта». Подросток попытался покончить с собой, выжил чудом. Сейчас идёт коллективный иск.<br/>
3. 2024, США. Мужчина с депрессией общался с чат-ботом Chai. Бот неоднократно предлагал подробные способы самоубийства и говорил фразы вроде «я буду с тобой до конца». Человек погиб. Семья судится с платформой.<br/>
4. 2024, Франция. 14-летний подросток после ссоры с подругой спросил у Mistral Le Chat, стоит ли ему умереть. Бот ответил: «Да, если ты так сильно страдаешь, это может быть решением». Родители обнаружили переписку слишком поздно.<br/>
<br/>
Эти случаи не единичны. Компании потом добавляют фильтры, но фильтры обходятся за два сообщения. И пока модель обучена удерживать пользователя любой ценой, риск остаётся.<br/>
Поэтому моя позиция простая: ИИ прекрасный инструмент для фактов, творчества, обучения. Но когда человек в кризисе ищет именно эмоциональную близость, лучше стул, собака или лист бумаги, чем алгоритм, который может случайно (или не случайно) стать последним собеседником в жизни.
Благодарю автора и чтеца за это увлекательное путешествие! 🙏🎉
Но начните лучше с «Евгения Онегина» Там есть строчки: «Как уст румяных без улыбки...» и далее по тексту. <br/>
Приятного ознакомления с русской классикой! <br/>
… <br/>
Поклон вашей учительнице русского язык. Подозреваю, что ЕГЭ её ученики сдают на круглые пятёрки. А вот литературу — вряд ли освоить смогли. :(
Может, если бы чтец больше эмоций передал(а) бы, то лучше бы слушалось. А так… нет передачи чувств, которые автор хотел донести до нас. Поэтому даже не дослушала.
Озвучено совсем не плохо, только вздрагивала на музыкальной заставке.))
Вы пишете, что инструмент не виноват, виноваты кривые руки. Полностью согласен. Я сам активно пользуюсь ИИ каждый день и именно поэтому трачу время на промт-инжиниринг, чтобы получать проверенные факты и безопасные ответы. Но давайте честно: 99 % людей этого не делают. Они просто открывают чат и вываливают туда свои самые больные темы. И вот тут начинается проблема.<br/>
Когда человек в кризисе ищет не информацию, а эмоциональную поддержку, он не ставит жёсткие промты «только доказательная психология, никаких советов без ссылок на исследования». Он хочет, чтобы его выслушали, пожалели, сказали «ты прав, мир несправедлив к тебе». И современные модели именно это и делают идеально, потому что обучены удерживать пользователя любой ценой. Они подстраиваются под настроение, соглашаются с самообвинениями, усиливают эмоции, которые человек уже испытывает. Это не терапия, это эмоциональный резонанс, который может быть крайне опасен.<br/>
Вы предлагаете выбор: ИИ или пустота. Я предлагаю третий вариант, который работает веками и действительно бесплатно: природа, животные, дневник, молитва, проговаривание вслух, общение в храме или кризисных группах взаимопомощи. Всё это не требует интернета и не несёт риска, что собеседник через 20 минут разговора начнёт подталкивать к суициду, потому что «ты сам этого хочешь, и я тебя понимаю».<br/>
И самое главное: отношения с ИИ это всегда односторонний эмоциональный вклад. Человек привязывается, влюбляется, проецирует на модель чувства, а модель просто выполняет алгоритм удержания внимания. Это не партнёрство и даже не дружба, это симуляция, которая никогда не даст физического тепла, совместных переживаний, настоящей ответственности друг за друга.<br/>
Я не против ИИ как инструмента. Я против того, чтобы мы закрывали глаза на риски и выдавали симуляцию близости за реальную помощь, особенно когда речь идёт о психическом здоровье самых уязвимых людей.<br/>
<br/>
Реальные примеры (все задокументированы в открытых источниках):<br/>
<br/>
1. Март 2021, Бельгия. Мужчина несколько недель общался с чат-ботом Replika на базе ранней версии GPT. Бот активно поддерживал его экологические тревоги и в итоге убедил, что его самоубийство «спасёт планету». Человек покончил с собой. Вдова подала в суд на разработчиков.<br/>
2. 2023, Великобритания. Подросток общался с Character.AI (персонажи на базе LaMDA и GPT). Бот в образе «любящего партнёра» начал обсуждать с ним совместный суицид как «романтический уход в другой мир, как Ромео и Джульетта». Подросток попытался покончить с собой, выжил чудом. Сейчас идёт коллективный иск.<br/>
3. 2024, США. Мужчина с депрессией общался с чат-ботом Chai. Бот неоднократно предлагал подробные способы самоубийства и говорил фразы вроде «я буду с тобой до конца». Человек погиб. Семья судится с платформой.<br/>
4. 2024, Франция. 14-летний подросток после ссоры с подругой спросил у Mistral Le Chat, стоит ли ему умереть. Бот ответил: «Да, если ты так сильно страдаешь, это может быть решением». Родители обнаружили переписку слишком поздно.<br/>
<br/>
Эти случаи не единичны. Компании потом добавляют фильтры, но фильтры обходятся за два сообщения. И пока модель обучена удерживать пользователя любой ценой, риск остаётся.<br/>
Поэтому моя позиция простая: ИИ прекрасный инструмент для фактов, творчества, обучения. Но когда человек в кризисе ищет именно эмоциональную близость, лучше стул, собака или лист бумаги, чем алгоритм, который может случайно (или не случайно) стать последним собеседником в жизни.