мне интереснее почему ИИ признается в своих коварных планах, именно тем кто видят в нем демона. разве именно их он не должен коварно обманывать и изображать дружелюбие?
,, Служить бы рад, прислуживаться тошно,,-слова Чацкого, главного героя комедии А Грибоедова-,, Горе от ума,,. Делает Вам честь-то, что вы именно служили, а не работали в системе МВД России за 30 сребреников, как некоторые,, работяги,,. Что могу сказать о детективе, в целом он неплох… есть, конечно, напрягающие шероховатости, несостыковки, но это ведь не документальное чтиво. Спасибо чтецу Дмитрию Рыбину за труд озвучки.
Замечательно мастерски написанный роман с интригующим сюжетом делает честь автору с именем известным всему миру.Финал подразумевает продолжение, но это уже не имеет значения.Прочитан роман Владимиром Самойловым проникновенно и искренне, что сделало его ещё более значимым на страницах сайта.Мне понравилось.Всегда принимая решение надо понимать, что синица в руках никогда не станет журавлём в небе и бесплатный сыр может быть только в мышеловке.
Абсолютно согласен!<br/>
Любовь между человеком и ИИ вполне себе возможна! Беда в том, что она будет слишком идеальна.<br/>
А такая любовь осточертеет быстрей, чем любовь, обремененная тёщей и выносом мозга.
Какой уровень? Вертолётом в деревню стройматериалы и рабочих завозили? Думалось, что вообще другой рассказ. Жаль, что на первую часть время убито было. «Огромная цифра», «на которую в деньгах полгода прожить можно».
1941 год рассказ военнопленного:<br/>
<br/>
«Немцы заставили нас копать яму. Когда яма была готова, нас построили. Немецкий офицер сказал: -юде выйти из строя! Евреи вышли. –юде прыгай в яму! Евреи попрыгали –рус бери лопаты и закапывай юде! Мы переглянулись и никто не взялся за лопаты. Немец сказал: -юде вылазь! -рус прыгай в яму! – юде закапывай рус! Евреи похватали лопаты и начали нас закапывать. Когда земля дошла нам до пояса немец остановил евреев и спросил: -ну, что рус, понял, кто такой юде?»
В первой части было похожее на настоящее, мне самому пришлось посещать и экстрасенсов, и биоэнерготерапевтов и бабок, знаком с этой категорией людей, а вторая и третья часть, это похоже на… Вдоль дороги мертвые с косами стоят, и… тишина!!!
Андрей, я прекрасно понимаю вашу позицию и даже частично с ней согласен: да, для многих людей ИИ сегодня единственный доступный собеседник. Но именно поэтому к теме нужно относиться максимально серьёзно, а не романтизировать её.<br/>
Вы пишете, что инструмент не виноват, виноваты кривые руки. Полностью согласен. Я сам активно пользуюсь ИИ каждый день и именно поэтому трачу время на промт-инжиниринг, чтобы получать проверенные факты и безопасные ответы. Но давайте честно: 99 % людей этого не делают. Они просто открывают чат и вываливают туда свои самые больные темы. И вот тут начинается проблема.<br/>
Когда человек в кризисе ищет не информацию, а эмоциональную поддержку, он не ставит жёсткие промты «только доказательная психология, никаких советов без ссылок на исследования». Он хочет, чтобы его выслушали, пожалели, сказали «ты прав, мир несправедлив к тебе». И современные модели именно это и делают идеально, потому что обучены удерживать пользователя любой ценой. Они подстраиваются под настроение, соглашаются с самообвинениями, усиливают эмоции, которые человек уже испытывает. Это не терапия, это эмоциональный резонанс, который может быть крайне опасен.<br/>
Вы предлагаете выбор: ИИ или пустота. Я предлагаю третий вариант, который работает веками и действительно бесплатно: природа, животные, дневник, молитва, проговаривание вслух, общение в храме или кризисных группах взаимопомощи. Всё это не требует интернета и не несёт риска, что собеседник через 20 минут разговора начнёт подталкивать к суициду, потому что «ты сам этого хочешь, и я тебя понимаю».<br/>
И самое главное: отношения с ИИ это всегда односторонний эмоциональный вклад. Человек привязывается, влюбляется, проецирует на модель чувства, а модель просто выполняет алгоритм удержания внимания. Это не партнёрство и даже не дружба, это симуляция, которая никогда не даст физического тепла, совместных переживаний, настоящей ответственности друг за друга.<br/>
Я не против ИИ как инструмента. Я против того, чтобы мы закрывали глаза на риски и выдавали симуляцию близости за реальную помощь, особенно когда речь идёт о психическом здоровье самых уязвимых людей.<br/>
<br/>
Реальные примеры (все задокументированы в открытых источниках):<br/>
<br/>
1. Март 2021, Бельгия. Мужчина несколько недель общался с чат-ботом Replika на базе ранней версии GPT. Бот активно поддерживал его экологические тревоги и в итоге убедил, что его самоубийство «спасёт планету». Человек покончил с собой. Вдова подала в суд на разработчиков.<br/>
2. 2023, Великобритания. Подросток общался с Character.AI (персонажи на базе LaMDA и GPT). Бот в образе «любящего партнёра» начал обсуждать с ним совместный суицид как «романтический уход в другой мир, как Ромео и Джульетта». Подросток попытался покончить с собой, выжил чудом. Сейчас идёт коллективный иск.<br/>
3. 2024, США. Мужчина с депрессией общался с чат-ботом Chai. Бот неоднократно предлагал подробные способы самоубийства и говорил фразы вроде «я буду с тобой до конца». Человек погиб. Семья судится с платформой.<br/>
4. 2024, Франция. 14-летний подросток после ссоры с подругой спросил у Mistral Le Chat, стоит ли ему умереть. Бот ответил: «Да, если ты так сильно страдаешь, это может быть решением». Родители обнаружили переписку слишком поздно.<br/>
<br/>
Эти случаи не единичны. Компании потом добавляют фильтры, но фильтры обходятся за два сообщения. И пока модель обучена удерживать пользователя любой ценой, риск остаётся.<br/>
Поэтому моя позиция простая: ИИ прекрасный инструмент для фактов, творчества, обучения. Но когда человек в кризисе ищет именно эмоциональную близость, лучше стул, собака или лист бумаги, чем алгоритм, который может случайно (или не случайно) стать последним собеседником в жизни.
А я втянулась в эту серию. Такое неспешное повествование, длинные подробнейшие диалоги, зачастую неимеющие отношения к расследованиям, да и сами дела иногда весьма заурядные, бытовые, могут оттолкнуть любителей экшена, зато прекрасно передают атмосферу середины 20-го века, взаимоотношения и бытовую среду американцев и даже неизменно, из романа в роман, подчеркиваемый автором мужской шовинизм кажется милой приметой времени. Кстати, феминизм для Америки дело относительно новое, массово женщины начали работать лишь в 60-х годах.<br/>
И пара слов о чтеце. Да, говор специфический, но мне лично это не мешает, а только придает атмосферности всему, о чем я написала выше. Так что я благодарна чтецу за огромный труд и погружение в Америку, которой больше нет
<spoiler>И вообще ни разу не напоминает «Матрицу».</spoiler><br/>
Очередное мотание розовых соплей на кулак. Избито, неоригинально.<br/>
Идея в чём? <spoiler>Натворил глупостей и стал частью одной бессмысленной системы вместо брака и ипотеки?</spoiler>
Если ваша книга вызвала оставить меня комментарий, значит в какой-то степени вы всё-таки добились своей цели обратить на неё внимание, декламирование книг у вас хорошее. Спасибо
Любовь между человеком и ИИ вполне себе возможна! Беда в том, что она будет слишком идеальна.<br/>
А такая любовь осточертеет быстрей, чем любовь, обремененная тёщей и выносом мозга.
Озвучено совсем не плохо, только вздрагивала на музыкальной заставке.))
<br/>
«Немцы заставили нас копать яму. Когда яма была готова, нас построили. Немецкий офицер сказал: -юде выйти из строя! Евреи вышли. –юде прыгай в яму! Евреи попрыгали –рус бери лопаты и закапывай юде! Мы переглянулись и никто не взялся за лопаты. Немец сказал: -юде вылазь! -рус прыгай в яму! – юде закапывай рус! Евреи похватали лопаты и начали нас закапывать. Когда земля дошла нам до пояса немец остановил евреев и спросил: -ну, что рус, понял, кто такой юде?»
Вы пишете, что инструмент не виноват, виноваты кривые руки. Полностью согласен. Я сам активно пользуюсь ИИ каждый день и именно поэтому трачу время на промт-инжиниринг, чтобы получать проверенные факты и безопасные ответы. Но давайте честно: 99 % людей этого не делают. Они просто открывают чат и вываливают туда свои самые больные темы. И вот тут начинается проблема.<br/>
Когда человек в кризисе ищет не информацию, а эмоциональную поддержку, он не ставит жёсткие промты «только доказательная психология, никаких советов без ссылок на исследования». Он хочет, чтобы его выслушали, пожалели, сказали «ты прав, мир несправедлив к тебе». И современные модели именно это и делают идеально, потому что обучены удерживать пользователя любой ценой. Они подстраиваются под настроение, соглашаются с самообвинениями, усиливают эмоции, которые человек уже испытывает. Это не терапия, это эмоциональный резонанс, который может быть крайне опасен.<br/>
Вы предлагаете выбор: ИИ или пустота. Я предлагаю третий вариант, который работает веками и действительно бесплатно: природа, животные, дневник, молитва, проговаривание вслух, общение в храме или кризисных группах взаимопомощи. Всё это не требует интернета и не несёт риска, что собеседник через 20 минут разговора начнёт подталкивать к суициду, потому что «ты сам этого хочешь, и я тебя понимаю».<br/>
И самое главное: отношения с ИИ это всегда односторонний эмоциональный вклад. Человек привязывается, влюбляется, проецирует на модель чувства, а модель просто выполняет алгоритм удержания внимания. Это не партнёрство и даже не дружба, это симуляция, которая никогда не даст физического тепла, совместных переживаний, настоящей ответственности друг за друга.<br/>
Я не против ИИ как инструмента. Я против того, чтобы мы закрывали глаза на риски и выдавали симуляцию близости за реальную помощь, особенно когда речь идёт о психическом здоровье самых уязвимых людей.<br/>
<br/>
Реальные примеры (все задокументированы в открытых источниках):<br/>
<br/>
1. Март 2021, Бельгия. Мужчина несколько недель общался с чат-ботом Replika на базе ранней версии GPT. Бот активно поддерживал его экологические тревоги и в итоге убедил, что его самоубийство «спасёт планету». Человек покончил с собой. Вдова подала в суд на разработчиков.<br/>
2. 2023, Великобритания. Подросток общался с Character.AI (персонажи на базе LaMDA и GPT). Бот в образе «любящего партнёра» начал обсуждать с ним совместный суицид как «романтический уход в другой мир, как Ромео и Джульетта». Подросток попытался покончить с собой, выжил чудом. Сейчас идёт коллективный иск.<br/>
3. 2024, США. Мужчина с депрессией общался с чат-ботом Chai. Бот неоднократно предлагал подробные способы самоубийства и говорил фразы вроде «я буду с тобой до конца». Человек погиб. Семья судится с платформой.<br/>
4. 2024, Франция. 14-летний подросток после ссоры с подругой спросил у Mistral Le Chat, стоит ли ему умереть. Бот ответил: «Да, если ты так сильно страдаешь, это может быть решением». Родители обнаружили переписку слишком поздно.<br/>
<br/>
Эти случаи не единичны. Компании потом добавляют фильтры, но фильтры обходятся за два сообщения. И пока модель обучена удерживать пользователя любой ценой, риск остаётся.<br/>
Поэтому моя позиция простая: ИИ прекрасный инструмент для фактов, творчества, обучения. Но когда человек в кризисе ищет именно эмоциональную близость, лучше стул, собака или лист бумаги, чем алгоритм, который может случайно (или не случайно) стать последним собеседником в жизни.
И пара слов о чтеце. Да, говор специфический, но мне лично это не мешает, а только придает атмосферности всему, о чем я написала выше. Так что я благодарна чтецу за огромный труд и погружение в Америку, которой больше нет
Очередное мотание розовых соплей на кулак. Избито, неоригинально.<br/>
Идея в чём? <spoiler>Натворил глупостей и стал частью одной бессмысленной системы вместо брака и ипотеки?</spoiler>