Вы, по-моему, упускаете такой момент, что тут все намеренно доведено до абсурда и гротеска. Это такой художественный ход, и в этом фишка этого произведения. Не знаю, почему вы так ополчились на автора и на эту книгу. Вполне достойное, забавное и своеобразное произведение.
Интуиция вам подсказывает одно, но есть реальность того, как устроены ИИ модели. Большие лингвистические модели — это те, с которыми можно вести диалог. В них технически все иначе, чем вы описываете. Это просто факт того, как они сделаны.
Ваш образ с ребенком неприменим. Такая модель не развивается и не формирует опыт. Она не «учится» в процессе общения с вами. Она выдает ответы на основе уже сложившейся структуры.
То, что вы воспринимаете как адаптацию, не обучение. Модель не узнает ничего нового и не сохраняет это — не интегрирует внутрь себя. Она лишь меняет тон внутри фиксированной схемы, но сама остается неизменной.
Есть системы, которые действительно учатся на людях (именно НА, а не У): рекомендательные алгоритмы Netflix, YouTube, TikTok. Им не важно, что вы объясняете — им важнее наблюдать, куда вы кликаете. Ваше поведение ценно, ваша речь нет.
Если бы вы сели и написали текст на 50 страниц о своих предпочтениях, такая система фактически проигнорировала бы его. Она «верит» только фактам — вашему поведению — а не описаниям.
Но большие лингвистические модели, с которыми мы говорим, не такие системы. Они не обновляются от взаимодействия, не меняют свои параметры. Поэтому ощущение «она учится у меня» — это просто эффект стиля ответа, а не реального изменения модели.
Такие модели совершенствуются, но совсем иначе. Через полгода выйдет новая версия, и она не будет «ребенком». Она появится сразу «взрослой», уже знающей все, что знает ее архитектура. И обучаться она будет не в диалоге с вами или со мной, а на совсем других данных и в другом цикле обновления.
Давайте просто разведем уровни. Если вам интересен разговор на уровне интуиции и образов, то мне тут сказать нечего — живите с ними, я не возражаю. Но если вам все же хочется понять, как это реально устроено, задавайте конкретные вопросы — я отвечу. В этой теме интуиция мало что дает: тут либо знание, либо домыслы. ИИ не из области метафизики, поэтому апелляция к интуиции не работает. Если готовы говорить без ссылок на интуицию — продолжим. Если нет — тогда, пожалуй, на этом и остановимся. Кажется, вам ваша интуиция вполне достаточна, и это тоже нормально. Желаю вам удачи.
Я тут подумал о вашем диалоге. Есть ИИ модели, которые действительно учатся, но не У людей, а НА людях. Ваши правки и фидбек в диалоге — пыль по сравнению с массивами данных, которые такие системы получают, наблюдая за поведением людей. В этом смысле мы для них НЕ УЧИТЕЛЯ, а материал для обучения – ПОДОПЫТНЫЕ КРОЛИКИ. Только давайте, пожалуйста, не взрываться тут по этому поводу. Я тоже для такой модели подопытный кролик, хоть и разбираюсь в ИИ.
Нет тут никакого повода для обид — просто так устроена технология. Возможно, разовью эту мысль позже.
И это все не относится к большим лингвистическим моделям (БЛМ или LLM) — таким с которыми мы ведем диалоги, как ChatGPT. Эти модели вообще ничему не учатся в диалогах с анми. У LLM изначально все не так построено. Мы получаем эти модели уже обученными. В общении с нами они НЕ меняются. Новые версии таких моделей выходят не на осмове диалогов с нами.
Не понимаю, зачемм чтец читает в таком диком темпе… Это халтура, или художественный ход такой? Что-то в этом есть, именно этот текст звучит норм в таком темпе. Не знаю…
Ваш образ с ребенком неприменим. Такая модель не развивается и не формирует опыт. Она не «учится» в процессе общения с вами. Она выдает ответы на основе уже сложившейся структуры.
То, что вы воспринимаете как адаптацию, не обучение. Модель не узнает ничего нового и не сохраняет это — не интегрирует внутрь себя. Она лишь меняет тон внутри фиксированной схемы, но сама остается неизменной.
Есть системы, которые действительно учатся на людях (именно НА, а не У): рекомендательные алгоритмы Netflix, YouTube, TikTok. Им не важно, что вы объясняете — им важнее наблюдать, куда вы кликаете. Ваше поведение ценно, ваша речь нет.
Если бы вы сели и написали текст на 50 страниц о своих предпочтениях, такая система фактически проигнорировала бы его. Она «верит» только фактам — вашему поведению — а не описаниям.
Но большие лингвистические модели, с которыми мы говорим, не такие системы. Они не обновляются от взаимодействия, не меняют свои параметры. Поэтому ощущение «она учится у меня» — это просто эффект стиля ответа, а не реального изменения модели.
Такие модели совершенствуются, но совсем иначе. Через полгода выйдет новая версия, и она не будет «ребенком». Она появится сразу «взрослой», уже знающей все, что знает ее архитектура. И обучаться она будет не в диалоге с вами или со мной, а на совсем других данных и в другом цикле обновления.
Давайте просто разведем уровни. Если вам интересен разговор на уровне интуиции и образов, то мне тут сказать нечего — живите с ними, я не возражаю. Но если вам все же хочется понять, как это реально устроено, задавайте конкретные вопросы — я отвечу. В этой теме интуиция мало что дает: тут либо знание, либо домыслы. ИИ не из области метафизики, поэтому апелляция к интуиции не работает. Если готовы говорить без ссылок на интуицию — продолжим. Если нет — тогда, пожалуй, на этом и остановимся. Кажется, вам ваша интуиция вполне достаточна, и это тоже нормально. Желаю вам удачи.
Нет тут никакого повода для обид — просто так устроена технология. Возможно, разовью эту мысль позже.
И это все не относится к большим лингвистическим моделям (БЛМ или LLM) — таким с которыми мы ведем диалоги, как ChatGPT. Эти модели вообще ничему не учатся в диалогах с анми. У LLM изначально все не так построено. Мы получаем эти модели уже обученными. В общении с нами они НЕ меняются. Новые версии таких моделей выходят не на осмове диалогов с нами.