Я же не говорю о том, что все нужно остановить и повернуть вспять. Фарш назад не провернешь — это понятно. ИИ будет развиваться полюбому.
Речь о другом. Раз уж мы все быстрее летим на машине, у которой есть только газ, то, наверное, логично хотя бы начать проектировать сначала тормоза — ну а потом уж и подушки безопасности, если успеем.
Не для запрета, а для контроля. Не чтобы «бороться с прогрессом», а чтобы не вехать в стену на полной скорости.
Заниматься этим нужно уже сейчас. А у нас получается, что все давят на газ, а тормозов вообще нет. Просто нет. Я говорю именно об этом. Развитие ИИ — да. Но параллельно — развитие механизмов контроля, оценки рисков и нормальной защиты.
Правильно! ИИ — это главный вызов и главная опасность, которая стоит перед человечеством. Это действительно так. Реально главная. Но если вы будете излагать свои мысли в такой форме, то вас никто не услышит и не поймет.
Сначала вы пишете, что искусственный интеллект — это главный враг человечества. Нет, ИИ — это не враг, а вызов и опасность. Понимаете, когда вы так переворачивая понятиями, то, что вы говорите, начинает казаться теорией конспирации. Это, раз.
Два, когда вы так пренебрежительно отзываетесь об окружающих, они тоже вряд ли вас услышат. Хотя это действительно важная тема, и о ней нужно говорить. И что самое интересное, нет сегодня политиков, которые об этом говорят. Это должно быть политическим решением. И не осной страны, а всех технологически развитых стран.
А вот насчет этих двух деятелей я хочу высказаться отдельно. Джеффри Хинтон — этот так называемый крестный отец искусственного интеллекта, ему 60 лет подряд твердили, насколько это опасно. А он теперь, выйдя на пенсию, с такой милой улыбочкой признается, что только только в последние несколько лет осознал всю эту опасность своей деятельности.
Лично мне, как и рядовому программисту, это было понятно много-много лет назад, и поэтому я никогда в этой сфере не работал.
Сэм Альтман — это тоже красавец, тот еще. Будучи директором некоммерческой организации, которая взяла на себя обязательство тратить 20% дохода (дохода! у некоммерческой организации)… 20% дохода тратить на выработку стратегий безопасности и контроля ИИ. Но как только их модели стали популярны, он все это свернул и отменил.
Поэтому я бы эту парочку из списка просто вычеркнул.
Ирония в том, что книга вроде бы маленькая, а ощущение оставляет, как будто тебя засунули в банку Петри и закрыли крышкой. Но читается бодро. Озвучено — неплохо.
Речь о другом. Раз уж мы все быстрее летим на машине, у которой есть только газ, то, наверное, логично хотя бы начать проектировать сначала тормоза — ну а потом уж и подушки безопасности, если успеем.
Не для запрета, а для контроля. Не чтобы «бороться с прогрессом», а чтобы не вехать в стену на полной скорости.
Заниматься этим нужно уже сейчас. А у нас получается, что все давят на газ, а тормозов вообще нет. Просто нет. Я говорю именно об этом. Развитие ИИ — да. Но параллельно — развитие механизмов контроля, оценки рисков и нормальной защиты.
Сначала вы пишете, что искусственный интеллект — это главный враг человечества. Нет, ИИ — это не враг, а вызов и опасность. Понимаете, когда вы так переворачивая понятиями, то, что вы говорите, начинает казаться теорией конспирации. Это, раз.
Два, когда вы так пренебрежительно отзываетесь об окружающих, они тоже вряд ли вас услышат. Хотя это действительно важная тема, и о ней нужно говорить. И что самое интересное, нет сегодня политиков, которые об этом говорят. Это должно быть политическим решением. И не осной страны, а всех технологически развитых стран.
А вот насчет этих двух деятелей я хочу высказаться отдельно. Джеффри Хинтон — этот так называемый крестный отец искусственного интеллекта, ему 60 лет подряд твердили, насколько это опасно. А он теперь, выйдя на пенсию, с такой милой улыбочкой признается, что только только в последние несколько лет осознал всю эту опасность своей деятельности.
Лично мне, как и рядовому программисту, это было понятно много-много лет назад, и поэтому я никогда в этой сфере не работал.
Сэм Альтман — это тоже красавец, тот еще. Будучи директором некоммерческой организации, которая взяла на себя обязательство тратить 20% дохода (дохода! у некоммерческой организации)… 20% дохода тратить на выработку стратегий безопасности и контроля ИИ. Но как только их модели стали популярны, он все это свернул и отменил.
Поэтому я бы эту парочку из списка просто вычеркнул.