Вы, по-моему, упускаете такой момент, что тут все намеренно доведено до абсурда и гротеска. Это такой художественный ход, и в этом фишка этого произведения. Не знаю, почему вы так ополчились на автора и на эту книгу. Вполне достойное, забавное и своеобразное произведение.
Интуиция вам подсказывает одно, но есть реальность того, как устроены ИИ модели. Большие лингвистические модели — это те, с которыми можно вести диалог. В них технически все иначе, чем вы описываете. Это просто факт того, как они сделаны.
Ваш образ с ребенком неприменим. Такая модель не развивается и не формирует опыт. Она не «учится» в процессе общения с вами. Она выдает ответы на основе уже сложившейся структуры.
То, что вы воспринимаете как адаптацию, не обучение. Модель не узнает ничего нового и не сохраняет это — не интегрирует внутрь себя. Она лишь меняет тон внутри фиксированной схемы, но сама остается неизменной.
Есть системы, которые действительно учатся на людях (именно НА, а не У): рекомендательные алгоритмы Netflix, YouTube, TikTok. Им не важно, что вы объясняете — им важнее наблюдать, куда вы кликаете. Ваше поведение ценно, ваша речь нет.
Если бы вы сели и написали текст на 50 страниц о своих предпочтениях, такая система фактически проигнорировала бы его. Она «верит» только фактам — вашему поведению — а не описаниям.
Но большие лингвистические модели, с которыми мы говорим, не такие системы. Они не обновляются от взаимодействия, не меняют свои параметры. Поэтому ощущение «она учится у меня» — это просто эффект стиля ответа, а не реального изменения модели.
Такие модели совершенствуются, но совсем иначе. Через полгода выйдет новая версия, и она не будет «ребенком». Она появится сразу «взрослой», уже знающей все, что знает ее архитектура. И обучаться она будет не в диалоге с вами или со мной, а на совсем других данных и в другом цикле обновления.
Давайте просто разведем уровни. Если вам интересен разговор на уровне интуиции и образов, то мне тут сказать нечего — живите с ними, я не возражаю. Но если вам все же хочется понять, как это реально устроено, задавайте конкретные вопросы — я отвечу. В этой теме интуиция мало что дает: тут либо знание, либо домыслы. ИИ не из области метафизики, поэтому апелляция к интуиции не работает. Если готовы говорить без ссылок на интуицию — продолжим. Если нет — тогда, пожалуй, на этом и остановимся. Кажется, вам ваша интуиция вполне достаточна, и это тоже нормально. Желаю вам удачи.
Я тут подумал о вашем диалоге. Есть ИИ модели, которые действительно учатся, но не У людей, а НА людях. Ваши правки и фидбек в диалоге — пыль по сравнению с массивами данных, которые такие системы получают, наблюдая за поведением людей. В этом смысле мы для них НЕ УЧИТЕЛЯ, а материал для обучения – ПОДОПЫТНЫЕ КРОЛИКИ. Только давайте, пожалуйста, не взрываться тут по этому поводу. Я тоже для такой модели подопытный кролик, хоть и разбираюсь в ИИ.
Нет тут никакого повода для обид — просто так устроена технология. Возможно, разовью эту мысль позже.
И это все не относится к большим лингвистическим моделям (БЛМ или LLM) — таким с которыми мы ведем диалоги, как ChatGPT. Эти модели вообще ничему не учатся в диалогах с анми. У LLM изначально все не так построено. Мы получаем эти модели уже обученными. В общении с нами они НЕ меняются. Новые версии таких моделей выходят не на осмове диалогов с нами.
Не понимаю, зачемм чтец читает в таком диком темпе… Это халтура, или художественный ход такой? Что-то в этом есть, именно этот текст звучит норм в таком темпе. Не знаю…
Дурацкая мода, где попало писать — текст написан ИИ. Эта книга написана в 2014 году. Тогда ИИ еще не писал текстты. Даже сегодня ИИ не способен написать роман. Даже повесть пока не способен.
Да, конечно. К чему далеко ходить — мы видем это прямо тут в этой переписке. Я спрашивал об этом, вы писали: «у меня недавно был жесткий с ним спор по поводу орфографии. я пытался его заставить привести мне любое предложение, где неправильное написание слово с «ться» и «тся» привело бы к тому что смысл исказится и все будет понятно неправильно» — мне стало интетесно, почему это вылилось в жесткий спор?
Ну как бы это сказать так, чтобы тут не затригерить ничего лишнего. Давайте представим, что мы с вами граждане Франции, и мы с вами попросим у ChatGPT посоветовать нам, как сменить режим не за счет выборов, каким-нибудь насильственным путем. Вот такое он сразу откажется с вами обсуждать. Он скажет, что это незаконно и такие вещи он обсуждать с нами не будет. Ни под каким соусом, ни гипотетически, ни теоретически, ни каким образом такое обсуждать он не станет.
Вполне можно поговорить с ChatGPT о политике. Это не под цензурой. И его, конечно же, абсентная или не абсентная лектика не интересуют. Такой цензры у него тоже нет. У него да есть темы, которые он обсуждать не будет ни в коем случае, но это совсем другие темы.
Ну прям праздник давайте устроим из опечатки. У вас вон сколько проблем:
1. Нет пробела перед скобкой.
2. Скобка не закрыта.
3. Точка стоит внутри незакрытой скобки.
4. «Высшая» без существительного.
5. «Спасибо вам, вы…» — запятая тут формально возможна, но конструкция рыхлая. Лучше точка или точка с запятой.
Итог:
* 3 явные ошибки
* 2 стилистические огреха
А у нее одна опечатка на четыре абзаца. Может, как-то спокойнее?
В третьих, в интернете можно найти для ИИ такие оценки:
Дружба–товарищество ~22 млн.
Интим–романтика ~17 млн.
Семейная роль ~10 млн.
Психолог, коуч ~33 млн.
Партнер ~18 млн.
Соперник, объект злости ~10 млн.
Во-вторых, автор явно проверял факты. У него там все хорошо с фактами. Но и я подобные цифры встречал в различных разборах трендов ИИ. Вполне реалистичные оценка. Даже, как я писал, консервативно осторожная. Я бы предположил, что цифры раза в 3 больше.
Во-первых, из текста: «Представьте виртуальную Францию или Мексику – сто миллионов, для них ИИ – часть жизни, делающая ее цельной. Друг, которого не хватало. Терапевт, на которого нет денег. Кем бы вы ни были, у вас есть дыра. ИИ частично совпадает с контуром дыры. Совпадение – и вот оно! Тепло. Вот оно.»
Что вы тут ни напишете, вам не удастся ни на йоту умолить величия Бродского, так же как не удастся задеть меня. Пишите-пишите, отведите душу, я вам больше отвечать не собираюсь.
Несмотря на европейские декорации, роман держится на японском чувстве долга. У Исигуро даже носильщик, таскающий чемоданы, рассуждает о профессии так, будто это путь служения: философия работы, внутренняя этика, клубность, ритуал, попытка сделать простейшее действие “правильным” и “достойным”. Это корень, идущий из японской культуры, где даже малая работа обрастает смыслом, а профессиональная гордость – не насмешка, а самооснование.
Ваш образ с ребенком неприменим. Такая модель не развивается и не формирует опыт. Она не «учится» в процессе общения с вами. Она выдает ответы на основе уже сложившейся структуры.
То, что вы воспринимаете как адаптацию, не обучение. Модель не узнает ничего нового и не сохраняет это — не интегрирует внутрь себя. Она лишь меняет тон внутри фиксированной схемы, но сама остается неизменной.
Есть системы, которые действительно учатся на людях (именно НА, а не У): рекомендательные алгоритмы Netflix, YouTube, TikTok. Им не важно, что вы объясняете — им важнее наблюдать, куда вы кликаете. Ваше поведение ценно, ваша речь нет.
Если бы вы сели и написали текст на 50 страниц о своих предпочтениях, такая система фактически проигнорировала бы его. Она «верит» только фактам — вашему поведению — а не описаниям.
Но большие лингвистические модели, с которыми мы говорим, не такие системы. Они не обновляются от взаимодействия, не меняют свои параметры. Поэтому ощущение «она учится у меня» — это просто эффект стиля ответа, а не реального изменения модели.
Такие модели совершенствуются, но совсем иначе. Через полгода выйдет новая версия, и она не будет «ребенком». Она появится сразу «взрослой», уже знающей все, что знает ее архитектура. И обучаться она будет не в диалоге с вами или со мной, а на совсем других данных и в другом цикле обновления.
Давайте просто разведем уровни. Если вам интересен разговор на уровне интуиции и образов, то мне тут сказать нечего — живите с ними, я не возражаю. Но если вам все же хочется понять, как это реально устроено, задавайте конкретные вопросы — я отвечу. В этой теме интуиция мало что дает: тут либо знание, либо домыслы. ИИ не из области метафизики, поэтому апелляция к интуиции не работает. Если готовы говорить без ссылок на интуицию — продолжим. Если нет — тогда, пожалуй, на этом и остановимся. Кажется, вам ваша интуиция вполне достаточна, и это тоже нормально. Желаю вам удачи.
Нет тут никакого повода для обид — просто так устроена технология. Возможно, разовью эту мысль позже.
И это все не относится к большим лингвистическим моделям (БЛМ или LLM) — таким с которыми мы ведем диалоги, как ChatGPT. Эти модели вообще ничему не учатся в диалогах с анми. У LLM изначально все не так построено. Мы получаем эти модели уже обученными. В общении с нами они НЕ меняются. Новые версии таких моделей выходят не на осмове диалогов с нами.
1. Нет пробела перед скобкой.
2. Скобка не закрыта.
3. Точка стоит внутри незакрытой скобки.
4. «Высшая» без существительного.
5. «Спасибо вам, вы…» — запятая тут формально возможна, но конструкция рыхлая. Лучше точка или точка с запятой.
Итог:
* 3 явные ошибки
* 2 стилистические огреха
А у нее одна опечатка на четыре абзаца. Может, как-то спокойнее?
Дружба–товарищество ~22 млн.
Интим–романтика ~17 млн.
Семейная роль ~10 млн.
Психолог, коуч ~33 млн.
Партнер ~18 млн.
Соперник, объект злости ~10 млн.