Я еще раз подчеркну, что это мое субъективное мнение. Но я, лично я, вот этого творчества Лавкрафта и ему подобных — просто не понимаю. Не принимаю. Я не считаю это искусством, понимаете в чем дело? Это — развлечение, времяпрепровождение, досуг… но не искусство. Каковым должна быть настоящая литература.
Это способ самоутверждаться. Понимаете ли, некоторым людям не нравится, что их ники написаны в нижней части экрана, и поэтому они наезжают на людей, чьи ники написаны в верхней части экрана. И получают от этого наслаждение — за счет самоутверждения.
Мое субъективное мнение — если в книге есть что-то глубокое и интересное, то ее центр — это не ужас. Все интересное и достойное называться литературой (из этого жанра) можно было бы с успехом разместить в другом жанре и оставить тут только «неликвидное». И вообще упразднить этот жанр. Ни на чем не настаиваю, это мое личное мнение.
А что вы ожидали от книги с таким названием? И вообще, честно говоря, жанр «ужасы»… По-моему, ваш комментарий просто на весь жанр можно повесить. Какая-то муть. Весь жанр. Уж простите мне мою прямоту.
Я бы все же держал фокус на другом — на менее очевидном. То, что ИИ появился как продукт человеческой деятельности, принципиально мало что меняет. Мы не создавали сам интеллект. Мы собрали среду, в которой он сам вырос и продолжает расти. В этом смысле он не «искусственный», а именно иной, чужеродный по отношению к нашему способу думать, по отношению к нашему образу существования. И его роль будет только усиливаться.
Именно его чужеродность крайне важна. Именно это надо понимать.
Вы говорите, что важно происхождение. Хорошо. А что из этого следует? К чему вы ведете эту линию? Можете пояснить, куда вы клоните?
А мы тоже не создали интеллект. В ИИ мы не создали интеллект, это не так. Мы создали инфраструктуру, которая способна учиться. А учится она сама. И свой интеллект создает — сама. В этом смысле название «искусственный интеллект» сильно всех путает. Это очень старый термин, когда думали, что мы действительно будем сами создавать такой интеллект. Это фантазии времен Айзека Азимова — первый закон робототехники, второй закон… Это все абсолютно нерелевантно к сегодняшнему ИИ. То, что мы называем ИИ, вернее называть не Искусственный Интеллект, а Иной Интеллект. Чужой Интеллект. Чуждый Интеллект.Чужеродный Интеллект. Он не искусственный — в том смысле, что он создан нами, мы им полностью управляем, и он как бы ручной.
Неплохая книга, но ее очень портят примечания редактора, который буквально каждую вещь бросается пояснить. А кроме того, он еще рассказывает, что хорошо, а что плохо. Вот, например, некая группа упоминается в тексте — и он пишет: сначала она играла хорошую музыку, а потом играла какую-то дрянь. Целый музыкальный стиль этот редактор объявляет никуда не годным. Что это вообще такое? Мне непонятно, с какого перепугу редактор нам навязывает свои музыкальные стилистические предрассудки. Получается чтение художественной литературы под присмотром политрука.
Вы спрашивали про «циферки». Это очень консервативные усредненные оценки из исследовательских материалов по использованию ИИ. Таких исследований много, их можно найти в открытом доступе. Я их не проводил, но я их видел. Поэтому речь не о гадании на лавочке, а о оценках масштаба явления. Если вам удобнее считать их «с потолка» — окей, но феномен от этого не исчезает.
Будем честны: я вас давно раздражаю. Неважно, что я отвечу — вы все равно это отклоните. Но ничего, цифры взяты не с коленки, а из исследований, которые легко найти. А если вам комфортнее видеть во мне бабку на лавочке — пусть так. Я переживу.
Вы исходите из предположения, что человек уже почти достиг своего биологического потолка. Но эволюция оптимизировала выживание, а не интеллект, и наш мозг — это не вершина возможностей, а компромисс. Реально мы используем лишь малую часть его вычислительного потенциала — но эффективная пиковая нагрузка далека от 100%, и даже от 20%. И это только пиковая! А обычную даже упоминать стыдно. )))
Ваш аргумент про череп не работает. У слона мозг больше, но это не делает его умнее: Гений — не про кубические сантиметры.
То, что генная инженерия сейчас ограничена — не значит, что она не сможет выйти за рамки «раскрытия заложенного». Мы впервые получили инсттрумент изменения того, что заложено. И когда вы говорите, что технология сможет дать «50% от природного гения» — этого уже более чем достаточно, чтобы создать устойчивый биологический разрыв. А в 2-3 итерации — пропасть.
Чтобы появилась физическая высшая каста, достаточно прироста в 10-15% по ключевым функциям — когнитивным, иммунным, физиологическим. Эти преимущества будут передаваться и накапливаться. Социальное неравенство так не работает, биологическое — работает.
Итак! вопрос не в том, «можно ли выжать из генома больше». Можно. Можно гораздо больше уже сегодня. Вопрос в том, что нас ждёт, когда это станет массовой практикой. И разделение на биологические касты перестанет быть фантастикой.
Да, до сих пор это было — количественное. Испокон веков богатые ели лучше, жили чище, имели врачей. И тем не менее — это не делало их потомков качественно другими. Их дети не становились умнее, выносливее или иммунологически сильнее по факту рождения. Преимущества были социальные, не биологические. По факту — дети богатых людей физически не отличаются от детей бедных.
Генная инженерия меняет правила — это будет именно качественная разница. Она создаст другой тип человека. Высшую касту. Через несколько итераций может появиться разрыв, сравнимый с тем, что отделяет нас от обезьяны. Это уже не преимущество, а высшая каста в физическом смысле. Не богатые, которые живут лучше, а биологически другие — умнее, крепче, долговечнее. Вот в чём принципиальная разница. Это именно качественная разница. И она станет стремительно расти. До ситуации, где нас будет сложно назвать одним биологическим видом.
Разница принципиальна. Современное сопровождение беременности снижает риск и лечит уже возникшие проблемы. Это терапия по факту.
Генетическая коррекция — другое. Болезни просто не будет. Это не лечение, а устранение причины до её появления. Грубо говоря: что лучше — лечить детский рак или сделать так, чтобы ребенок никогда им не заболел?
И отсюда этическая дилемма. Когда корректируют гены для предотвращения болезней — одно. Когда начнут «улучшать» детей, выбирать им способности — совсем другие последствия.
И вот тут начинается уже совсем другой коленкор: предотвращение болезней — несомненное благо, а «улучшение» становится инструментом неравенства. Дети богатых будут не просто здоровее. У них появится реальное биологическое преимущество. До сих пор у людей было телесное равенство — мы рождались примерно одинаковыми. Теперь возможна кастовая биология: те, у кого есть доступ к технологиям, станут буквально другими — сильнее, умнее, выносливее. Это уже не социальный, а физический разрыв. Фактически появится новый тип людей. Высшая каста. Те, кто сможет позволить себе апгрейд, будут не просто жить иначе — они станут другими существами, с другим набором возможностей. И это будет не в каком-то далеком будущем, а вполне возможно очень скоро.
Вы, по-моему, упускаете такой момент, что тут все намеренно доведено до абсурда и гротеска. Это такой художественный ход, и в этом фишка этого произведения. Не знаю, почему вы так ополчились на автора и на эту книгу. Вполне достойное, забавное и своеобразное произведение.
Интуиция вам подсказывает одно, но есть реальность того, как устроены ИИ модели. Большие лингвистические модели — это те, с которыми можно вести диалог. В них технически все иначе, чем вы описываете. Это просто факт того, как они сделаны.
Ваш образ с ребенком неприменим. Такая модель не развивается и не формирует опыт. Она не «учится» в процессе общения с вами. Она выдает ответы на основе уже сложившейся структуры.
То, что вы воспринимаете как адаптацию, не обучение. Модель не узнает ничего нового и не сохраняет это — не интегрирует внутрь себя. Она лишь меняет тон внутри фиксированной схемы, но сама остается неизменной.
Есть системы, которые действительно учатся на людях (именно НА, а не У): рекомендательные алгоритмы Netflix, YouTube, TikTok. Им не важно, что вы объясняете — им важнее наблюдать, куда вы кликаете. Ваше поведение ценно, ваша речь нет.
Если бы вы сели и написали текст на 50 страниц о своих предпочтениях, такая система фактически проигнорировала бы его. Она «верит» только фактам — вашему поведению — а не описаниям.
Но большие лингвистические модели, с которыми мы говорим, не такие системы. Они не обновляются от взаимодействия, не меняют свои параметры. Поэтому ощущение «она учится у меня» — это просто эффект стиля ответа, а не реального изменения модели.
Такие модели совершенствуются, но совсем иначе. Через полгода выйдет новая версия, и она не будет «ребенком». Она появится сразу «взрослой», уже знающей все, что знает ее архитектура. И обучаться она будет не в диалоге с вами или со мной, а на совсем других данных и в другом цикле обновления.
Давайте просто разведем уровни. Если вам интересен разговор на уровне интуиции и образов, то мне тут сказать нечего — живите с ними, я не возражаю. Но если вам все же хочется понять, как это реально устроено, задавайте конкретные вопросы — я отвечу. В этой теме интуиция мало что дает: тут либо знание, либо домыслы. ИИ не из области метафизики, поэтому апелляция к интуиции не работает. Если готовы говорить без ссылок на интуицию — продолжим. Если нет — тогда, пожалуй, на этом и остановимся. Кажется, вам ваша интуиция вполне достаточна, и это тоже нормально. Желаю вам удачи.
Я тут подумал о вашем диалоге. Есть ИИ модели, которые действительно учатся, но не У людей, а НА людях. Ваши правки и фидбек в диалоге — пыль по сравнению с массивами данных, которые такие системы получают, наблюдая за поведением людей. В этом смысле мы для них НЕ УЧИТЕЛЯ, а материал для обучения – ПОДОПЫТНЫЕ КРОЛИКИ. Только давайте, пожалуйста, не взрываться тут по этому поводу. Я тоже для такой модели подопытный кролик, хоть и разбираюсь в ИИ.
Нет тут никакого повода для обид — просто так устроена технология. Возможно, разовью эту мысль позже.
И это все не относится к большим лингвистическим моделям (БЛМ или LLM) — таким с которыми мы ведем диалоги, как ChatGPT. Эти модели вообще ничему не учатся в диалогах с анми. У LLM изначально все не так построено. Мы получаем эти модели уже обученными. В общении с нами они НЕ меняются. Новые версии таких моделей выходят не на осмове диалогов с нами.
Не понимаю, зачемм чтец читает в таком диком темпе… Это халтура, или художественный ход такой? Что-то в этом есть, именно этот текст звучит норм в таком темпе. Не знаю…
Дурацкая мода, где попало писать — текст написан ИИ. Эта книга написана в 2014 году. Тогда ИИ еще не писал текстты. Даже сегодня ИИ не способен написать роман. Даже повесть пока не способен.
Да, конечно. К чему далеко ходить — мы видем это прямо тут в этой переписке. Я спрашивал об этом, вы писали: «у меня недавно был жесткий с ним спор по поводу орфографии. я пытался его заставить привести мне любое предложение, где неправильное написание слово с «ться» и «тся» привело бы к тому что смысл исказится и все будет понятно неправильно» — мне стало интетесно, почему это вылилось в жесткий спор?
Именно его чужеродность крайне важна. Именно это надо понимать.
Вы говорите, что важно происхождение. Хорошо. А что из этого следует? К чему вы ведете эту линию? Можете пояснить, куда вы клоните?
Будем честны: я вас давно раздражаю. Неважно, что я отвечу — вы все равно это отклоните. Но ничего, цифры взяты не с коленки, а из исследований, которые легко найти. А если вам комфортнее видеть во мне бабку на лавочке — пусть так. Я переживу.
Ваш аргумент про череп не работает. У слона мозг больше, но это не делает его умнее: Гений — не про кубические сантиметры.
То, что генная инженерия сейчас ограничена — не значит, что она не сможет выйти за рамки «раскрытия заложенного». Мы впервые получили инсттрумент изменения того, что заложено. И когда вы говорите, что технология сможет дать «50% от природного гения» — этого уже более чем достаточно, чтобы создать устойчивый биологический разрыв. А в 2-3 итерации — пропасть.
Чтобы появилась физическая высшая каста, достаточно прироста в 10-15% по ключевым функциям — когнитивным, иммунным, физиологическим. Эти преимущества будут передаваться и накапливаться. Социальное неравенство так не работает, биологическое — работает.
Итак! вопрос не в том, «можно ли выжать из генома больше». Можно. Можно гораздо больше уже сегодня. Вопрос в том, что нас ждёт, когда это станет массовой практикой. И разделение на биологические касты перестанет быть фантастикой.
Генная инженерия меняет правила — это будет именно качественная разница. Она создаст другой тип человека. Высшую касту. Через несколько итераций может появиться разрыв, сравнимый с тем, что отделяет нас от обезьяны. Это уже не преимущество, а высшая каста в физическом смысле. Не богатые, которые живут лучше, а биологически другие — умнее, крепче, долговечнее. Вот в чём принципиальная разница. Это именно качественная разница. И она станет стремительно расти. До ситуации, где нас будет сложно назвать одним биологическим видом.
Генетическая коррекция — другое. Болезни просто не будет. Это не лечение, а устранение причины до её появления. Грубо говоря: что лучше — лечить детский рак или сделать так, чтобы ребенок никогда им не заболел?
И отсюда этическая дилемма. Когда корректируют гены для предотвращения болезней — одно. Когда начнут «улучшать» детей, выбирать им способности — совсем другие последствия.
И вот тут начинается уже совсем другой коленкор: предотвращение болезней — несомненное благо, а «улучшение» становится инструментом неравенства. Дети богатых будут не просто здоровее. У них появится реальное биологическое преимущество. До сих пор у людей было телесное равенство — мы рождались примерно одинаковыми. Теперь возможна кастовая биология: те, у кого есть доступ к технологиям, станут буквально другими — сильнее, умнее, выносливее. Это уже не социальный, а физический разрыв. Фактически появится новый тип людей. Высшая каста. Те, кто сможет позволить себе апгрейд, будут не просто жить иначе — они станут другими существами, с другим набором возможностей. И это будет не в каком-то далеком будущем, а вполне возможно очень скоро.
Ваш образ с ребенком неприменим. Такая модель не развивается и не формирует опыт. Она не «учится» в процессе общения с вами. Она выдает ответы на основе уже сложившейся структуры.
То, что вы воспринимаете как адаптацию, не обучение. Модель не узнает ничего нового и не сохраняет это — не интегрирует внутрь себя. Она лишь меняет тон внутри фиксированной схемы, но сама остается неизменной.
Есть системы, которые действительно учатся на людях (именно НА, а не У): рекомендательные алгоритмы Netflix, YouTube, TikTok. Им не важно, что вы объясняете — им важнее наблюдать, куда вы кликаете. Ваше поведение ценно, ваша речь нет.
Если бы вы сели и написали текст на 50 страниц о своих предпочтениях, такая система фактически проигнорировала бы его. Она «верит» только фактам — вашему поведению — а не описаниям.
Но большие лингвистические модели, с которыми мы говорим, не такие системы. Они не обновляются от взаимодействия, не меняют свои параметры. Поэтому ощущение «она учится у меня» — это просто эффект стиля ответа, а не реального изменения модели.
Такие модели совершенствуются, но совсем иначе. Через полгода выйдет новая версия, и она не будет «ребенком». Она появится сразу «взрослой», уже знающей все, что знает ее архитектура. И обучаться она будет не в диалоге с вами или со мной, а на совсем других данных и в другом цикле обновления.
Давайте просто разведем уровни. Если вам интересен разговор на уровне интуиции и образов, то мне тут сказать нечего — живите с ними, я не возражаю. Но если вам все же хочется понять, как это реально устроено, задавайте конкретные вопросы — я отвечу. В этой теме интуиция мало что дает: тут либо знание, либо домыслы. ИИ не из области метафизики, поэтому апелляция к интуиции не работает. Если готовы говорить без ссылок на интуицию — продолжим. Если нет — тогда, пожалуй, на этом и остановимся. Кажется, вам ваша интуиция вполне достаточна, и это тоже нормально. Желаю вам удачи.
Нет тут никакого повода для обид — просто так устроена технология. Возможно, разовью эту мысль позже.
И это все не относится к большим лингвистическим моделям (БЛМ или LLM) — таким с которыми мы ведем диалоги, как ChatGPT. Эти модели вообще ничему не учатся в диалогах с анми. У LLM изначально все не так построено. Мы получаем эти модели уже обученными. В общении с нами они НЕ меняются. Новые версии таких моделей выходят не на осмове диалогов с нами.