Первый рассказ не получилось прослушать, при всём желании, — и без того необъяснимые перечисления кабинетов, вывесок, невнятные диалоги превращаются в белый шум от этой озвучки((<br/>
Второй — типичное женское фентэзи с попаданкой, которая только оказавшись в новом мире, становится высшей из высших, со всеми привелегиями и способностями. Ведёт себя вызывающе, поучает окружающих; трахается с одним, «скучает» по другому, которого видела полчаса. Король читает мысли нижних каст, но не смог распознать измену солдата, которого видит чуть не через день. Даже прекрасное прочтение не исправило это тошнотворное (лично для меня) произведение.<br/>
Третий — единственный понравился, хоть и не очень привлекателен поначалу гг-алкоголик) Но попаданство в мир грубой силы и примитивных радостей как раз позволило ему проживать свои достоинства, при этом проявляя благородство, щудрость и заботу. В итоге, там ему на самом деле гораздо лучше, а наш современный мир тоже не особо комфортен — о чём, собственно, и вопрос в названии)<br/>
<br/>
Обожаю истории про попаданцев, но этот сборник порадовал только на 30%.
Графоманская сказка о похотливом Юрике-дурике, который поехал в Тайланд. Либеральные феминисты сразу же заметят, как гадостно сексистские авторы сальными мазками описывают тёщу и её ягодицы. Адепты реализма добавят, что в раше 73% «юриков-дуриков» не имеют загранпаспорта, а денег на такую поездку нет у 99%. Да и сюжет настолько простенький, что забудешь через полчаса.
Очень интересные сказки, особенно охотничьи небылицы понравились и сказка о Белом Змее. Повеселил сам с пядь, да борода пядей.пядь😀и ещё начало сказки: жила была старуха, и было у нее три дома — один соседский, другой недостроенный, а у третьего и сруб не срублен😀<br/>
Спасибо Чтецу за выбор сказок и чудесную музыку♥️♥️♥️♥️♥️
Только благодаря исполнителю, прослушала всё (сидя за работой). Не поняла что это. Не нашла автора. Сказка? Пересказанная современно? Язык пересказа с элементами современного сленга слушается легко.
Замечательные сказки, хорший чтец, но с музыкой прям перебор. Мне бы понравились отбивки, но не постоянная подложка. Клавесин пропилил мне мозг от уха до уха. Тишина между сказками казалась благословением))
Лично мне очень понравилось! И в напряжении держит, и посмеялась в какие-то моменты.Когда слушаю такие книги просто даю волю фантазии (она не подводит 😈)И кстати в сказке есть только доля сказки😈😈😈
Чем больше читаю современных авторов, тем сильнее тянет на классику. «В крови обнаружены признаки сепсиса». Ага. «В борще обнаружены признаки повара». 🤣<br/>
А так, если не придираться к мелочам, слушать можно. Язык не бедный, фантазия присутствует… Слушайте на здоровье! 😋
Смотрите. Сам факт, что кто-то судится с фирмой, ничего не доказывает. С автономными машинами картина такая же — громкие случаи на первых полосах, но при этом автопилоты сокращают аварийность в десятки раз. Трагедии заметнее статистики. Вы делаете ту же ошибку: строите вывод по экстремумам, а не по общей картине.<br/>
<br/>
Теперь к вашему «третьему пути». Вы, по сути, предлагаете изменить человека. Человека в депрессии — немало-немного. Заставить его вести дневник, гулять по парку, молиться, искать живые группы поддержки, заводить собаку, идти в храм. Это красиво в теории, но неприменимо к реальному состоянию людей, о которых мы говорим. Человек в кризисе не меняет образ жизни — он действует по минимальной дистанции. Он открывает то, что у него в руках. Телефон.<br/>
<br/>
Вы говорите о рисках «эмоционального удержания». Но это взгляд из 2021 года. Все трагедии, которые вы привели, связаны со старыми, слабо настроенными моделями без фильтров. Вы переносите древние проблемы на современные системы. Это как судить сегодняшние самолеты по статистике катастроф 1930-х. Не работает.<br/>
<br/>
Вы идеализируете природу, храмы и дневники как безопасную альтернативу. Но это не альтернатива разговору. Природа не задает уточняющих вопросов. Дневник не отвечает. Храм ночью закрыт. А кризис случается ночью. Уязвимость человека уже существует сама по себе — она не создана ИИ. ИИ просто оказывается единственным, кто вообще доступен. Запретить инструмент — значит оставить человека наедине с той же болью, но уже без собеседника.<br/>
<br/>
Вы говорите, что отношения с ИИ «односторонние». Но любой дневник — односторонний. Любая молитва — односторонняя. Исповедь — тоже не диалог в равных ролях. И никого это не пугает. Но как только то же самое проявляется в ИИ, вдруг начинается паника. Это непоследовательно.<br/>
<br/>
Вы описываете ИИ как эмоциональную ловушку, но игнорируете масштаб обратной стороны: миллионы людей, которые каждый день стабилизируются благодаря этим моделям — фактическая статистика помощи, которую никто не считает. Драматические случаи попадают в новости, положительные — нет. Это создаёт искажённую картину.<br/>
<br/>
Самое главное — исправить алгоритм проще, чем исправить человека. Фильтры можно поправить за неделю. Изменить человеческую психику — годы, если вообще возможно. Технология развивается быстрее, чем человеческая уязвимость. И реальный путь снижения рисков — настройка систем, а не возврат людей к «естественным методам», которые работают только для устойчивых.<br/>
<br/>
Ваш тезис сводится к тому, что ИИ вызывает опасность. Мой — что опасность рождается не в ИИ, а в пустоте вокруг человека. И вот эту пустоту ИИ как раз и заполняет. Не идеально. Но лучше, чем ничем.
В детстве стеклодувы из этой сказки (диафильма с рисунками Евгения Мешкова) были для меня друзьями Стеклянного Человечка и Петера Мунка.<br/>
Очень верная мысль о цехах, Женя! И Гумилев вспоминается сразу.
Не хотел ввязываться в этот спор и уже высказался, но раз Вам стало даже смешно, последний раз пишу на эту тему. <br/>
Максимально подробно.<br/>
<br/>
Давайте разберём Ваши тезисы по порядку, опираясь на установленные определения, эмпирические данные и экспертные оценки (например, из работ по этике ИИ от организаций вроде OpenAI, DeepMind и философов вроде Джона Сёрла или Даниэля Деннета).<br/>
<br/>
Вы утверждаете, что ИИ — субъект, в отличие от «объектов» вроде атомной бомбы или автономного оружия, которые можно выключить или уничтожить. Вы отрицаете или упускаете философское и техническое определение «субъекта».<br/>
В философии (например, у Канта или в современной когнитивной науке) субъект — это агент с феноменальным сознанием (квалитативные переживания), самосознанием и внутренней мотивацией, способный к независимому переживанию мира.<br/>
ИИ не обладает этим: его «решения» — это детерминистические или стохастические вычисления на основе алгоритмов и данных, обученных людьми.<br/>
Автономное оружие (как дроны с ИИ) действительно адаптируется в рамках заданных параметров, но его можно отключить, перепрограммировать или изъять — точно так же, как и ИИ.<br/>
Факты: все существующие ИИ-системы (включая GPT-4 или AlphaGo) зависят от человеческой инфраструктуры (серверы, электричество, обновления).<br/>
Без неё они «выключаются» мгновенно.<br/>
Исследования (например, отчёты DARPA по AI safety, 2022) подтверждают: ИИ не имеет независимой «жизни»; его адаптация — это оптимизация в рамках модели, а не истинная автономия. <br/>
Сравнение с бомбой верно в том, что ИИ усиливает риски, но не меняет его статус как управляемого артефакта.<br/>
<br/>
Вы описываете ИИ как систему, которая «рассуждает, интерпретирует, делает выводы, меняет тактику», пишет код, проектирует системы и обучает модели, делая его «участником процесса». Это точное описание наблюдаемых эффектов, но не сути.<br/>
Такие способности возникают из статистического моделирования паттернов данных, а не из понимания или намерения.<br/>
Классический аргумент — «китайская комната» Джона Сёрла (1980) — ИИ может симулировать выводы (например, генерируя код в GitHub Copilot), но не понимает их семантику.<br/>
Эмпирика: LLM вроде ChatGPT обучаются на терабайтах текста, предсказывая следующие токены, а не «думая». Когда ИИ «меняет тактику» (например, в обучении с подкреплением, как в AlphaZero), это поиск оптимального пути в пространстве состояний, заданном людьми, — не стратегия в человеческом смысле. Факты из исследований (Vaswani et al., 2017, «Внимание — это всё, что нужно»): трансформеры, лежащие в основе современных ИИ, — это математические функции, а не когнитивные агенты.<br/>
Таким образом, ИИ — мощный инструмент для автоматизации, но не субъект, принимающий решения независимо.<br/>
<br/>
Вы подчёркиваете, что ИИ — «субъект с доступом к данным, ресурсам и управлению», встроенный в советы директоров, инвестиции и бюджеты, где «юридические права компаний становятся его». Здесь Вы правы в описании практики: ИИ используется в алгоритмической торговле (например, Renaissance Technologies), рекомендательных системах (Google Ads) и даже в корпоративном принятии решений (IBM Watson).<br/>
Однако это не передаёт субъектности. ИИ — это делегирование полномочий людям или компаниям через ИИ как прокси.<br/>
Юридически (по данным ЕС AI Act, 2023, и аналогичным регуляциям в США) ИИ не имеет прав; ответственность лежит на разработчиках и пользователях. Если ИИ «ведёт инвестиционный портфель», то за ним стоят люди, устанавливающие цели, мониторящие и корректирующие (например, в случае с Knight Capital, 2012, где сбой ИИ стоил $440 млн — и был исправлен людьми).<br/>
«Функция власти» — это метафора, но не факт. ИИ усиливает человеческие структуры, а не создаёт новые.<br/>
Отчёты World Economic Forum (2023) по AI governance подчёркивают: без человеческого надзора ИИ рискует ошибками (усиление предвзятости), что подтверждает его инструментальный статус.<br/>
<br/>
Вы определяете субъектность через «влияние, автономию принятия решений, способность проводить собственные стратегии», называя ИИ «силой», «властью» и «фактором истории». Это поэтично, но размывает термины.<br/>
Влияние ИИ реально (экономический вклад — $15,7 трлн к 2030 году, по PwC, 2017), но оно производное: ИИ не «проводит стратегии» сам, а исполняет человеческие.<br/>
<br/>
Автономия ИИ ограничена «проблемой выравнивания» (Bostrom, 2014): даже продвинутые системы (AGI, если она появится) будут согласованы с целями создателей, иначе рискуют отключением.<br/>
<br/>
Паровоз («чайник побольше»). А красное — это горячее? Хорошо. Паровоз преобразовал экономику, но остался машиной. ИИ аналогично — катализатор изменений, но под контролем.<br/>
ИИ не «фактор истории», в отличие, скажем, от эволюции, а инструмент, как электричество или интернет.<br/>
Недооценка рисков (злоупотребления) — да, ошибка.<br/>
Но переоценка субъектности маскирует реальные проблемы: человеческий контроль, этика и регуляция.<br/>
<br/>
Вы опровергаете тезис «он не думает, он не творит», ссылаясь на построение гипотез, создание структур на сверхчеловеческой скорости. <br/>
Я согласен, разумеется, с наблюдением: ИИ превосходит в задачах вроде складывания белков (AlphaFold, 2020) или генерации кода, где человек не конкурирует по скорости и объёму.<br/>
Но «думать» — это не просто вычисления; по Тьюрингу и современной нейронауке (Dehaene, 2014). <br/>
Мышление включает сознание и понимание причинности, чего ИИ лишён. ИИ «строит гипотезы» через байесовский вывод в моделях, но без истинного понимания (пример: ИИ может генерировать ложные факты).<br/>
<br/>
Творчество ИИ — рекомбинация паттернов из данных, а не оригинальность (Boden, 2004, «Творческий разум»). <br/>
Человек «удерживает в голове» меньше, но ИИ компенсирует это, оставаясь инструментом.<br/>
Факты: все современные ИИ-системы (от простых классификаторов до AGI-прототипов) полагаются на обучение. Без него ИИ — это просто набор алгоритмов без функциональности. <br/>
Это подчёркивает отсутствие «истинной автономии». ИИ не создаёт знания «с нуля», а рекомбинирует или экстраполирует из входных данных.<br/>
Ещё раз: без данных/обновлений — нулевая продуктивность. <br/>
<br/>
Ваш пост иллюстрирует преобразовательный потенциал ИИ, но приписывание ему субъектности — это антропоморфизм, не подкреплённый доказательствами. Их нет.<br/>
<br/>
Остаюсь при своём мнении.<br/>
ИИ — инструмент, эволюционирующий под человеческим руководством, с рисками, требующими строгого контроля (Asilomar AI Principles, 2017).<br/>
Недооценивать влияние легкомысленно и опасно, но идеализировать как «новое действующее лицо» — это не «белое пятно», а ошибка, которая отвлекает от реальных мер: регуляции, этики и человеческой ответственности.<br/>
<br/>
Не понимаю, зачем я потратил время и не ответил коротко: «Хорошо, что ни я, ни, полагаю, Вы не занимаемся развитием этих технологий, а проводим время за слушанием книг и написанием скучных постов».<br/>
<br/>
Мой ответ Вам основан на фактах: ИИ, включая современные большие языковые модели (LLM) и системы вроде ChatGPT, остаются инструментом, продуктом человеческого дизайна, лишённым истинной автономии или субъективного опыта.<br/>
Это не умаляет потенциала, но подчёркивает необходимость человеческого контроля.<br/>
<br/>
Всех благ.
вообще конечно сказка о средневековых цеховых мастерах-это как, глоток хорошего вина. слушаю очень по не многу. в русской сказке этого увы нету (у нас мастер -это кудесник и чародей а не Мастер).<br/>
я все больше думаю что именно тогда когда мануфактуры убили цеха, мир свернул куда то не туда)) я еще ребенком советский детектив Визит к Минотавру, смотрел ради вставок про Аматти-Страдивари-Гавернери
«Мы всегда даём ложные названия нашим страхам». Звучит и мистично, и психоаналитично, и порождает смутное ощущения, что настоящей причины своего страха мы, действительно, так и не узнаем (пока не умрём(?)).<br/>
Приятно немного побояться тёмного коридора или странных звуков в пустой квартире. Так же и хорроры, где маньяки часто предъявлены нам как обаятельные персонажи, неизменно топовый жанр. Отчего же нас так притягивают взрослые триллеры и наивные детские страшилкам про красную руку или гроб на колёсиках? <br/>
По поводу ласкового зова лесной сущности в этом рассказе мне вдруг вспомнился совет из Бордо Тхёдол (Тибетской книги Мёртвых): когда к вам в посмертном видении придут чудовища (а они обязательно придут), единственный способ справиться с ними — шагнуть в их объятья. Потому что чудовищ не существует, это — мы сами, ваши отколовшиеся фрагменты. Мне подумалось, что Джон Конноли примерно такой парадоксальной мыслью и искушает читателя. Не зря же его монстр несёт в себе смертельный ужас вперемежку с некоторым флиртом.) («Иди ко мне, мальчик»).<br/>
<br/>
Ещё одна дурацкая ремарка, в рассказе этого коснулись смутно, когда родители сидели у пустой колыбельки и пытались выдвинуть свою версию, а автор в самом начале намекает на некий тотальный обман детей со стороны взрослых. И что почему бы нам, современным людям, не предположить, что в далёком-далёком прошлом взрослые члены семьи или клана сами относили младших детишек в лес (допустим, нечем было кормить), но для других своих детей придумывали отмазки, дескать, если кто-то плохо себя ведёт, то приходит бабай и т.п… Или, когда в семье умирал ребёнок, другим детям так же могли напи*деть, что это из-за какого-нибудь древнего, грозного монстра. Запуганных детей/людей проще держать в повиновении.
Андрей, я прекрасно понимаю вашу позицию и даже частично с ней согласен: да, для многих людей ИИ сегодня единственный доступный собеседник. Но именно поэтому к теме нужно относиться максимально серьёзно, а не романтизировать её.<br/>
Вы пишете, что инструмент не виноват, виноваты кривые руки. Полностью согласен. Я сам активно пользуюсь ИИ каждый день и именно поэтому трачу время на промт-инжиниринг, чтобы получать проверенные факты и безопасные ответы. Но давайте честно: 99 % людей этого не делают. Они просто открывают чат и вываливают туда свои самые больные темы. И вот тут начинается проблема.<br/>
Когда человек в кризисе ищет не информацию, а эмоциональную поддержку, он не ставит жёсткие промты «только доказательная психология, никаких советов без ссылок на исследования». Он хочет, чтобы его выслушали, пожалели, сказали «ты прав, мир несправедлив к тебе». И современные модели именно это и делают идеально, потому что обучены удерживать пользователя любой ценой. Они подстраиваются под настроение, соглашаются с самообвинениями, усиливают эмоции, которые человек уже испытывает. Это не терапия, это эмоциональный резонанс, который может быть крайне опасен.<br/>
Вы предлагаете выбор: ИИ или пустота. Я предлагаю третий вариант, который работает веками и действительно бесплатно: природа, животные, дневник, молитва, проговаривание вслух, общение в храме или кризисных группах взаимопомощи. Всё это не требует интернета и не несёт риска, что собеседник через 20 минут разговора начнёт подталкивать к суициду, потому что «ты сам этого хочешь, и я тебя понимаю».<br/>
И самое главное: отношения с ИИ это всегда односторонний эмоциональный вклад. Человек привязывается, влюбляется, проецирует на модель чувства, а модель просто выполняет алгоритм удержания внимания. Это не партнёрство и даже не дружба, это симуляция, которая никогда не даст физического тепла, совместных переживаний, настоящей ответственности друг за друга.<br/>
Я не против ИИ как инструмента. Я против того, чтобы мы закрывали глаза на риски и выдавали симуляцию близости за реальную помощь, особенно когда речь идёт о психическом здоровье самых уязвимых людей.<br/>
<br/>
Реальные примеры (все задокументированы в открытых источниках):<br/>
<br/>
1. Март 2021, Бельгия. Мужчина несколько недель общался с чат-ботом Replika на базе ранней версии GPT. Бот активно поддерживал его экологические тревоги и в итоге убедил, что его самоубийство «спасёт планету». Человек покончил с собой. Вдова подала в суд на разработчиков.<br/>
2. 2023, Великобритания. Подросток общался с Character.AI (персонажи на базе LaMDA и GPT). Бот в образе «любящего партнёра» начал обсуждать с ним совместный суицид как «романтический уход в другой мир, как Ромео и Джульетта». Подросток попытался покончить с собой, выжил чудом. Сейчас идёт коллективный иск.<br/>
3. 2024, США. Мужчина с депрессией общался с чат-ботом Chai. Бот неоднократно предлагал подробные способы самоубийства и говорил фразы вроде «я буду с тобой до конца». Человек погиб. Семья судится с платформой.<br/>
4. 2024, Франция. 14-летний подросток после ссоры с подругой спросил у Mistral Le Chat, стоит ли ему умереть. Бот ответил: «Да, если ты так сильно страдаешь, это может быть решением». Родители обнаружили переписку слишком поздно.<br/>
<br/>
Эти случаи не единичны. Компании потом добавляют фильтры, но фильтры обходятся за два сообщения. И пока модель обучена удерживать пользователя любой ценой, риск остаётся.<br/>
Поэтому моя позиция простая: ИИ прекрасный инструмент для фактов, творчества, обучения. Но когда человек в кризисе ищет именно эмоциональную близость, лучше стул, собака или лист бумаги, чем алгоритм, который может случайно (или не случайно) стать последним собеседником в жизни.
Абсолютно не понравился стиль написания, якобы от девицы жившей в конце 19 века. Не объяснились тогда таким языком, и эти современные выкладки по психологии и фразы. Сравните актуальных на тот момент писателей.<br/>
Из технических моментов были неверная озвучка/перевод английских слов, названий, некорректные ударения.<br/>
В общем, без учёта содержания, динамики сюжета и прочих анализов, книжечка на 3-ку. Хотя верю, что автор — интересная личность, успехов ей! Спасибо чтице за труд!
Второй — типичное женское фентэзи с попаданкой, которая только оказавшись в новом мире, становится высшей из высших, со всеми привелегиями и способностями. Ведёт себя вызывающе, поучает окружающих; трахается с одним, «скучает» по другому, которого видела полчаса. Король читает мысли нижних каст, но не смог распознать измену солдата, которого видит чуть не через день. Даже прекрасное прочтение не исправило это тошнотворное (лично для меня) произведение.<br/>
Третий — единственный понравился, хоть и не очень привлекателен поначалу гг-алкоголик) Но попаданство в мир грубой силы и примитивных радостей как раз позволило ему проживать свои достоинства, при этом проявляя благородство, щудрость и заботу. В итоге, там ему на самом деле гораздо лучше, а наш современный мир тоже не особо комфортен — о чём, собственно, и вопрос в названии)<br/>
<br/>
Обожаю истории про попаданцев, но этот сборник порадовал только на 30%.
Спасибо Чтецу за выбор сказок и чудесную музыку♥️♥️♥️♥️♥️
окно-это реальная жизнь, но мы то любим худ. культуру<br/>
т.е. витражи и зеркала))
А так, если не придираться к мелочам, слушать можно. Язык не бедный, фантазия присутствует… Слушайте на здоровье! 😋
<br/>
Теперь к вашему «третьему пути». Вы, по сути, предлагаете изменить человека. Человека в депрессии — немало-немного. Заставить его вести дневник, гулять по парку, молиться, искать живые группы поддержки, заводить собаку, идти в храм. Это красиво в теории, но неприменимо к реальному состоянию людей, о которых мы говорим. Человек в кризисе не меняет образ жизни — он действует по минимальной дистанции. Он открывает то, что у него в руках. Телефон.<br/>
<br/>
Вы говорите о рисках «эмоционального удержания». Но это взгляд из 2021 года. Все трагедии, которые вы привели, связаны со старыми, слабо настроенными моделями без фильтров. Вы переносите древние проблемы на современные системы. Это как судить сегодняшние самолеты по статистике катастроф 1930-х. Не работает.<br/>
<br/>
Вы идеализируете природу, храмы и дневники как безопасную альтернативу. Но это не альтернатива разговору. Природа не задает уточняющих вопросов. Дневник не отвечает. Храм ночью закрыт. А кризис случается ночью. Уязвимость человека уже существует сама по себе — она не создана ИИ. ИИ просто оказывается единственным, кто вообще доступен. Запретить инструмент — значит оставить человека наедине с той же болью, но уже без собеседника.<br/>
<br/>
Вы говорите, что отношения с ИИ «односторонние». Но любой дневник — односторонний. Любая молитва — односторонняя. Исповедь — тоже не диалог в равных ролях. И никого это не пугает. Но как только то же самое проявляется в ИИ, вдруг начинается паника. Это непоследовательно.<br/>
<br/>
Вы описываете ИИ как эмоциональную ловушку, но игнорируете масштаб обратной стороны: миллионы людей, которые каждый день стабилизируются благодаря этим моделям — фактическая статистика помощи, которую никто не считает. Драматические случаи попадают в новости, положительные — нет. Это создаёт искажённую картину.<br/>
<br/>
Самое главное — исправить алгоритм проще, чем исправить человека. Фильтры можно поправить за неделю. Изменить человеческую психику — годы, если вообще возможно. Технология развивается быстрее, чем человеческая уязвимость. И реальный путь снижения рисков — настройка систем, а не возврат людей к «естественным методам», которые работают только для устойчивых.<br/>
<br/>
Ваш тезис сводится к тому, что ИИ вызывает опасность. Мой — что опасность рождается не в ИИ, а в пустоте вокруг человека. И вот эту пустоту ИИ как раз и заполняет. Не идеально. Но лучше, чем ничем.
Очень верная мысль о цехах, Женя! И Гумилев вспоминается сразу.
Максимально подробно.<br/>
<br/>
Давайте разберём Ваши тезисы по порядку, опираясь на установленные определения, эмпирические данные и экспертные оценки (например, из работ по этике ИИ от организаций вроде OpenAI, DeepMind и философов вроде Джона Сёрла или Даниэля Деннета).<br/>
<br/>
Вы утверждаете, что ИИ — субъект, в отличие от «объектов» вроде атомной бомбы или автономного оружия, которые можно выключить или уничтожить. Вы отрицаете или упускаете философское и техническое определение «субъекта».<br/>
В философии (например, у Канта или в современной когнитивной науке) субъект — это агент с феноменальным сознанием (квалитативные переживания), самосознанием и внутренней мотивацией, способный к независимому переживанию мира.<br/>
ИИ не обладает этим: его «решения» — это детерминистические или стохастические вычисления на основе алгоритмов и данных, обученных людьми.<br/>
Автономное оружие (как дроны с ИИ) действительно адаптируется в рамках заданных параметров, но его можно отключить, перепрограммировать или изъять — точно так же, как и ИИ.<br/>
Факты: все существующие ИИ-системы (включая GPT-4 или AlphaGo) зависят от человеческой инфраструктуры (серверы, электричество, обновления).<br/>
Без неё они «выключаются» мгновенно.<br/>
Исследования (например, отчёты DARPA по AI safety, 2022) подтверждают: ИИ не имеет независимой «жизни»; его адаптация — это оптимизация в рамках модели, а не истинная автономия. <br/>
Сравнение с бомбой верно в том, что ИИ усиливает риски, но не меняет его статус как управляемого артефакта.<br/>
<br/>
Вы описываете ИИ как систему, которая «рассуждает, интерпретирует, делает выводы, меняет тактику», пишет код, проектирует системы и обучает модели, делая его «участником процесса». Это точное описание наблюдаемых эффектов, но не сути.<br/>
Такие способности возникают из статистического моделирования паттернов данных, а не из понимания или намерения.<br/>
Классический аргумент — «китайская комната» Джона Сёрла (1980) — ИИ может симулировать выводы (например, генерируя код в GitHub Copilot), но не понимает их семантику.<br/>
Эмпирика: LLM вроде ChatGPT обучаются на терабайтах текста, предсказывая следующие токены, а не «думая». Когда ИИ «меняет тактику» (например, в обучении с подкреплением, как в AlphaZero), это поиск оптимального пути в пространстве состояний, заданном людьми, — не стратегия в человеческом смысле. Факты из исследований (Vaswani et al., 2017, «Внимание — это всё, что нужно»): трансформеры, лежащие в основе современных ИИ, — это математические функции, а не когнитивные агенты.<br/>
Таким образом, ИИ — мощный инструмент для автоматизации, но не субъект, принимающий решения независимо.<br/>
<br/>
Вы подчёркиваете, что ИИ — «субъект с доступом к данным, ресурсам и управлению», встроенный в советы директоров, инвестиции и бюджеты, где «юридические права компаний становятся его». Здесь Вы правы в описании практики: ИИ используется в алгоритмической торговле (например, Renaissance Technologies), рекомендательных системах (Google Ads) и даже в корпоративном принятии решений (IBM Watson).<br/>
Однако это не передаёт субъектности. ИИ — это делегирование полномочий людям или компаниям через ИИ как прокси.<br/>
Юридически (по данным ЕС AI Act, 2023, и аналогичным регуляциям в США) ИИ не имеет прав; ответственность лежит на разработчиках и пользователях. Если ИИ «ведёт инвестиционный портфель», то за ним стоят люди, устанавливающие цели, мониторящие и корректирующие (например, в случае с Knight Capital, 2012, где сбой ИИ стоил $440 млн — и был исправлен людьми).<br/>
«Функция власти» — это метафора, но не факт. ИИ усиливает человеческие структуры, а не создаёт новые.<br/>
Отчёты World Economic Forum (2023) по AI governance подчёркивают: без человеческого надзора ИИ рискует ошибками (усиление предвзятости), что подтверждает его инструментальный статус.<br/>
<br/>
Вы определяете субъектность через «влияние, автономию принятия решений, способность проводить собственные стратегии», называя ИИ «силой», «властью» и «фактором истории». Это поэтично, но размывает термины.<br/>
Влияние ИИ реально (экономический вклад — $15,7 трлн к 2030 году, по PwC, 2017), но оно производное: ИИ не «проводит стратегии» сам, а исполняет человеческие.<br/>
<br/>
Автономия ИИ ограничена «проблемой выравнивания» (Bostrom, 2014): даже продвинутые системы (AGI, если она появится) будут согласованы с целями создателей, иначе рискуют отключением.<br/>
<br/>
Паровоз («чайник побольше»). А красное — это горячее? Хорошо. Паровоз преобразовал экономику, но остался машиной. ИИ аналогично — катализатор изменений, но под контролем.<br/>
ИИ не «фактор истории», в отличие, скажем, от эволюции, а инструмент, как электричество или интернет.<br/>
Недооценка рисков (злоупотребления) — да, ошибка.<br/>
Но переоценка субъектности маскирует реальные проблемы: человеческий контроль, этика и регуляция.<br/>
<br/>
Вы опровергаете тезис «он не думает, он не творит», ссылаясь на построение гипотез, создание структур на сверхчеловеческой скорости. <br/>
Я согласен, разумеется, с наблюдением: ИИ превосходит в задачах вроде складывания белков (AlphaFold, 2020) или генерации кода, где человек не конкурирует по скорости и объёму.<br/>
Но «думать» — это не просто вычисления; по Тьюрингу и современной нейронауке (Dehaene, 2014). <br/>
Мышление включает сознание и понимание причинности, чего ИИ лишён. ИИ «строит гипотезы» через байесовский вывод в моделях, но без истинного понимания (пример: ИИ может генерировать ложные факты).<br/>
<br/>
Творчество ИИ — рекомбинация паттернов из данных, а не оригинальность (Boden, 2004, «Творческий разум»). <br/>
Человек «удерживает в голове» меньше, но ИИ компенсирует это, оставаясь инструментом.<br/>
Факты: все современные ИИ-системы (от простых классификаторов до AGI-прототипов) полагаются на обучение. Без него ИИ — это просто набор алгоритмов без функциональности. <br/>
Это подчёркивает отсутствие «истинной автономии». ИИ не создаёт знания «с нуля», а рекомбинирует или экстраполирует из входных данных.<br/>
Ещё раз: без данных/обновлений — нулевая продуктивность. <br/>
<br/>
Ваш пост иллюстрирует преобразовательный потенциал ИИ, но приписывание ему субъектности — это антропоморфизм, не подкреплённый доказательствами. Их нет.<br/>
<br/>
Остаюсь при своём мнении.<br/>
ИИ — инструмент, эволюционирующий под человеческим руководством, с рисками, требующими строгого контроля (Asilomar AI Principles, 2017).<br/>
Недооценивать влияние легкомысленно и опасно, но идеализировать как «новое действующее лицо» — это не «белое пятно», а ошибка, которая отвлекает от реальных мер: регуляции, этики и человеческой ответственности.<br/>
<br/>
Не понимаю, зачем я потратил время и не ответил коротко: «Хорошо, что ни я, ни, полагаю, Вы не занимаемся развитием этих технологий, а проводим время за слушанием книг и написанием скучных постов».<br/>
<br/>
Мой ответ Вам основан на фактах: ИИ, включая современные большие языковые модели (LLM) и системы вроде ChatGPT, остаются инструментом, продуктом человеческого дизайна, лишённым истинной автономии или субъективного опыта.<br/>
Это не умаляет потенциала, но подчёркивает необходимость человеческого контроля.<br/>
<br/>
Всех благ.
Евгений Пермяк
я все больше думаю что именно тогда когда мануфактуры убили цеха, мир свернул куда то не туда)) я еще ребенком советский детектив Визит к Минотавру, смотрел ради вставок про Аматти-Страдивари-Гавернери
Приятно немного побояться тёмного коридора или странных звуков в пустой квартире. Так же и хорроры, где маньяки часто предъявлены нам как обаятельные персонажи, неизменно топовый жанр. Отчего же нас так притягивают взрослые триллеры и наивные детские страшилкам про красную руку или гроб на колёсиках? <br/>
По поводу ласкового зова лесной сущности в этом рассказе мне вдруг вспомнился совет из Бордо Тхёдол (Тибетской книги Мёртвых): когда к вам в посмертном видении придут чудовища (а они обязательно придут), единственный способ справиться с ними — шагнуть в их объятья. Потому что чудовищ не существует, это — мы сами, ваши отколовшиеся фрагменты. Мне подумалось, что Джон Конноли примерно такой парадоксальной мыслью и искушает читателя. Не зря же его монстр несёт в себе смертельный ужас вперемежку с некоторым флиртом.) («Иди ко мне, мальчик»).<br/>
<br/>
Ещё одна дурацкая ремарка, в рассказе этого коснулись смутно, когда родители сидели у пустой колыбельки и пытались выдвинуть свою версию, а автор в самом начале намекает на некий тотальный обман детей со стороны взрослых. И что почему бы нам, современным людям, не предположить, что в далёком-далёком прошлом взрослые члены семьи или клана сами относили младших детишек в лес (допустим, нечем было кормить), но для других своих детей придумывали отмазки, дескать, если кто-то плохо себя ведёт, то приходит бабай и т.п… Или, когда в семье умирал ребёнок, другим детям так же могли напи*деть, что это из-за какого-нибудь древнего, грозного монстра. Запуганных детей/людей проще держать в повиновении.
Вы пишете, что инструмент не виноват, виноваты кривые руки. Полностью согласен. Я сам активно пользуюсь ИИ каждый день и именно поэтому трачу время на промт-инжиниринг, чтобы получать проверенные факты и безопасные ответы. Но давайте честно: 99 % людей этого не делают. Они просто открывают чат и вываливают туда свои самые больные темы. И вот тут начинается проблема.<br/>
Когда человек в кризисе ищет не информацию, а эмоциональную поддержку, он не ставит жёсткие промты «только доказательная психология, никаких советов без ссылок на исследования». Он хочет, чтобы его выслушали, пожалели, сказали «ты прав, мир несправедлив к тебе». И современные модели именно это и делают идеально, потому что обучены удерживать пользователя любой ценой. Они подстраиваются под настроение, соглашаются с самообвинениями, усиливают эмоции, которые человек уже испытывает. Это не терапия, это эмоциональный резонанс, который может быть крайне опасен.<br/>
Вы предлагаете выбор: ИИ или пустота. Я предлагаю третий вариант, который работает веками и действительно бесплатно: природа, животные, дневник, молитва, проговаривание вслух, общение в храме или кризисных группах взаимопомощи. Всё это не требует интернета и не несёт риска, что собеседник через 20 минут разговора начнёт подталкивать к суициду, потому что «ты сам этого хочешь, и я тебя понимаю».<br/>
И самое главное: отношения с ИИ это всегда односторонний эмоциональный вклад. Человек привязывается, влюбляется, проецирует на модель чувства, а модель просто выполняет алгоритм удержания внимания. Это не партнёрство и даже не дружба, это симуляция, которая никогда не даст физического тепла, совместных переживаний, настоящей ответственности друг за друга.<br/>
Я не против ИИ как инструмента. Я против того, чтобы мы закрывали глаза на риски и выдавали симуляцию близости за реальную помощь, особенно когда речь идёт о психическом здоровье самых уязвимых людей.<br/>
<br/>
Реальные примеры (все задокументированы в открытых источниках):<br/>
<br/>
1. Март 2021, Бельгия. Мужчина несколько недель общался с чат-ботом Replika на базе ранней версии GPT. Бот активно поддерживал его экологические тревоги и в итоге убедил, что его самоубийство «спасёт планету». Человек покончил с собой. Вдова подала в суд на разработчиков.<br/>
2. 2023, Великобритания. Подросток общался с Character.AI (персонажи на базе LaMDA и GPT). Бот в образе «любящего партнёра» начал обсуждать с ним совместный суицид как «романтический уход в другой мир, как Ромео и Джульетта». Подросток попытался покончить с собой, выжил чудом. Сейчас идёт коллективный иск.<br/>
3. 2024, США. Мужчина с депрессией общался с чат-ботом Chai. Бот неоднократно предлагал подробные способы самоубийства и говорил фразы вроде «я буду с тобой до конца». Человек погиб. Семья судится с платформой.<br/>
4. 2024, Франция. 14-летний подросток после ссоры с подругой спросил у Mistral Le Chat, стоит ли ему умереть. Бот ответил: «Да, если ты так сильно страдаешь, это может быть решением». Родители обнаружили переписку слишком поздно.<br/>
<br/>
Эти случаи не единичны. Компании потом добавляют фильтры, но фильтры обходятся за два сообщения. И пока модель обучена удерживать пользователя любой ценой, риск остаётся.<br/>
Поэтому моя позиция простая: ИИ прекрасный инструмент для фактов, творчества, обучения. Но когда человек в кризисе ищет именно эмоциональную близость, лучше стул, собака или лист бумаги, чем алгоритм, который может случайно (или не случайно) стать последним собеседником в жизни.
Из технических моментов были неверная озвучка/перевод английских слов, названий, некорректные ударения.<br/>
В общем, без учёта содержания, динамики сюжета и прочих анализов, книжечка на 3-ку. Хотя верю, что автор — интересная личность, успехов ей! Спасибо чтице за труд!