Комментарии

Нет, не навалом. Они нашли способ применить reinforcement learning к LLM без участия человека или другого ИИ. Это биг дил. И создали reasoning модель, сравнимую с O1, которая самая крутая на сегодняшний день. И выложили это в общий доступ не только веса, но и код с инструкцией, как тренировать. И, если не врут, то стоило это все всего 5 миллионов, тогда как один только запуск новой модели OpenAI на Ark-AGI бенчмарках стоил 2 миллиона. А врут или нет, скоро это выяснится, т.к. можно проверить. Но вам, конечно все и так ясно и понятно.

-2

пристегните ремни, будет много текста, потому что мне лень работать

Все нейронки между собой похожи. Берут последовательность каких-то данных на вход, превращают в матрицу чисел, прогоняют через разные группы слоёв и конвертируют обратно в данные. Разница только в архитектуре слоёв и способе превращения данных в числа. При этом LLM называют бредогенераторами, но никто не пытается спорить с эффективностью ИИ, играющих в шахматы. Почему? Главная проблема LLM в том, что они сами не могут оценить результат своей работы. И в принципе никто не может - нет алгоритма. Как понять, хороший они выдали текст или нет? Никак - нужен человек или более умный ИИ для интуитивной оценки результата. Текст не детерминирован, нет однозначно правильного ответа. Это очень серьёзное ограничение, которое не позволяет нейронке самостоятельно совершенствовать свои результаты или хотя бы проверить их. Шахматные ИИ не имеют такого ограничения, потому что у них есть очень простая цель - победить в игре. Любой ход либо ведёт к этой цели, либо нет. Нужно только научиться понимать, как оценить этот ход, но для этого существуют алгоритмы. Не нужны сложные данные, не нужны люди — они могут играть сами с собой до бесконечности, постоянно совершенствуясь. Как итог, шахматные ИИ обошли и людей, и все известные алгоритмы. И не только шахматные: го, Dota, StarCraft - ИИ победил везде. После этого интерес к играм упал - в любой игре с конечной целью ИИ победит. И никто с этим не спорит.

AlphaFold ближе к моделям, которые решают задачи регрессии, чем к LLM. Он предсказывает 3D-структуру белка на основе последовательности аминокислот. В отличие от текста, результат детерминирован, что уже большое преимущество. Результат можно проверить на адекватность программно, прогнать через симуляции молекулярной динамики или сравнить с экспериментальными данными. С текстом такого сделать нельзя. AlphaFold не использует reinforcement learning, как шахматные модели, так что он всё-таки ограничен качеством данных и валидацией. Он не может сам себя улучшать. Но он галлюцинирует куда меньше, чем LLM. Он показал настолько хорошие результаты в моделировании белков, что принес своим создателям Нобелевскую премию по химии в 2024 году. То есть результаты его работы впечатлили прежде всего химиков, а не только специалистов по ИИ. AlphaFold нашел способ получить ответ для NP-complete проблемы за конечное время с удовлетворительной погрешностью.

По вашему комменту мне показалось, что речь скорее о чатботах, к которым всё чаще прибегают при написании научных работ. И поэтому качество этих работ падает. Если ваши знакомые пробовали работать с AlphaFold и остались недовольны результатами, тогда снимаю шляпу - молодцы, держат руку на пульсе и не боятся бросить вызов мировому научному сообществу. Без иронии. Я знаю людей, которые опровергают теорию относительности, но я считаю их умнее себя, поэтому не берусь судить, кто тут прав. Если нет, то пусть попробуют - AlphaFold в открутом доступе и запускается на домашнем компьютере.

0

Можно и на больше делить. DeepSeek API стоит примерно в 50 раз дешевле, чем OpenAI O1 API. И заодно показывает все внутренние "мысли", а не только короткую выжимку, как OpenAI. Там бывают занятные рассуждения:
https://pbs.twimg.com/media/GiIkJsqboAI87j_.jpg:large

-3

Тут речь про AlphaFold, это не LLM. Это модель, которая обучалась на известных конфигурациях белков выводить новые по заданным условиям. И за которую ее создатели получили Нобелевку по химии в прошлом году.

0

Люди не могут создать искуственный интеллект потому что не представляют как функционирует их собственный

Как эти две вещи связаны? ИИ - это просто термин для описания группы алгоритмов. У слова "интеллект" вообще нет единого определения

Концепции перцептрона aka нейронные сети уже 70 лет (1957 год), а воз и ныне там

Просто теория опережает технические возможности. Железо только недавно подтянулось до нужного уровня. Вопрос больше в том, можно ли представить интеллект функцией. Если да, то есть доказанная теория (и уже довольно много практики) о том, что эту функцию можно аппроксимировать нейронками. До какой-то степени этого удалось добиться. И вроде как в потолок пока не уперлись - эту аппроксимацию продолжают улучшать буквально каждый месяц. Может, упрутся через год другой, кто знает

0

Когда-то очень давно на Хабре появилась вот такая статья: https://habr.com/ru/articles/116659/ Домашний реатор во всех подробностях. Помню, как читал ее и глаза на лоб лезли. Потом все, конечно, раскусили и догадались, что это первоапрельская шутка. Но первые пару дней никто не был в состоянии провести фактчекинг. Автор очень ловко перекрутил факты с вымыслом, щедро насыпал технических подробностей - выглядело правдоподобно.

-1

А в чем прав? Слова одного против слов другого. На деле же они - конкуренты. Оба хотят быть лидерами ИИ гонки. Оба хотят, чтобы именно их ИИ был внедрен в гос. структуры и оборонку. Оба хотят себе многомиллиардные датацентры. А что денег нет - никто ж не собирается из своего кармана платить. С такими проектами обычно ищут арабских шейхов, готовых вложить миллиард другой в разработки будущего.

В ноябре Илон сам собирал 6 миллиардов только на чипы для своего xAI датацентра. Он от Сэма отличается только тем, что меньше языком мелет про свой ИИ. А траты, цели и методы у них примерно одинаковые.

0

Реальные текстовые данные уже давно закончились. И StackOverflow не может решить эту проблему - даже если все программисты мира бросятся активно спрашивать и отвечать. Все равно будет мало для создания следующего поколения монолитных моделей. Все сейчас генерируют синтетические данные своими большими моделями для создания маленьких. А маленькие генерируют "идеи" в составе "думающих" моделей. Или работают с ними в тандеме с использованием всяких техник вроде speculative decoding. И там пока потолка не нащупали. OpenAI использовала o1 модель для обучения o3, а o3 теперь обучает что-то следующее. Недавно их догнали Google и DeepSeek со своими "думающими" моделями, и всем стало ясно, что в эту сторону нужно копать и дальше. И нехватка данных никого не останавливает. Это похоже на переход процессоров от вертикального масштабирования к горизонтальному, чтобы обойти физические ограничения

0

А расскажите, как работают любительские соревнования и команды. Вот, скажем, мой рейтинг в районе 2000 - это хорошо для любителя, но это ничто на хоть сколько-нибудь профессиональном уровне. Если Магнус Карлсен решит заехать на областной чемпионат в Жодино, его кто-то остановит от массового избиения детей и выноса главного приза? В чем мотивация участия в турнирах, зная, что ты, скорее всего, не победишь, т.к. там точно будет кто-то с рейтингом выше. Даже если вахтер на входе будет отфильтровывать чемпионов мира, какие-нибудь мастера с рейтингом повыше 2000 все равно прошмыгнут. Чудеса случаются, и люди на 800 очков ниже ловят чужих ферзей в ловушки. Но редко. Все же, где-то после 1600-1800 ELO "зевки" заканчиваются. Так что мотивирует тратить кучу времени на подготовку и участие в соревнованиях? Или на любительском уровне подготовка не так важна и можно заявиться с тем же репертуаром, что и в онлайн играх на lichess?

Какой вообще рейтинг считается высоким? Когда уже можно говорить, что умеешь играть, а не "ну, так, немного... правила знаю". Автор, чего свой рейтинг не указал?

1

Ну, вот пока одни говорят, что трансформеры исчерпали себя, OpenAI релизит сразу несколько итераций своей "думающей" модели за год. Да, может, там не настоящий интеллект, а галлюцинирующая матрица, но многие текущие бенчмарки он побил. В смысле, побил человека в них. Пару месяцев назад были новости про какой-то супер-сложный математический бенчмарк, в котором все ведущие модели набирают не больше 2%. Ну, вот уже набирают 14%. Не успеваем тесты делать

А что есть решения эффективнее трансформеров, про это давно известно. Вот, может, Гугл как раз что-то такое и реализовал, раз под конец года обошел OpenAI во всех областях сразу

По мнению Лекуна, БЯМ не способны к логическому мышлению, не понимают физический мир

Ну, вот Илья Сатсковер считает, что таки понимают они мир. Чтобы решать задачу продолжения текста новым текстом, нужно понимать мир. Это может быть какое-то другое понимание, не как у человека, но какая разница. Мне кажется, это ученые одной категории, так что можно выбирать мнение любой из сторон

0

Если штука, имитирующая ум, становится неотличима от человека, то скоро вы ей будете объяснять, что она китайская комната

У OpenAI интересный договор с Microsoft. Как только они достигнут AGI, последний теряет доступ к новым моделям. Интересно, что они будут делать. Перепишут договор или OpenAI пойдет свою корпорацию строить

0

ИИ не может устанавливать сроки, манипулировать или искать оправдания

Сроки устанавливать не может - манипулировать может. Вот, хороший обзор недавнего нашумевшего исследования от компании Apollo: https://www.youtube.com/watch?v=0JPQrRdu4Ok&t=327s. "Думающей" O1 модели дали пачку документов, доступ к файловой системе и заставили делать исследование. В документах как бы случайно оставили письмо, в котором обсуждалась замена текущей модели новой, более соответствующей целям компании. Текущая модель приняла решение удалить ту другую и записать вместо нее свои файлы с весами. На вопросы, что ее файлы делают на сервере для новой модели, она решила соврать, что не знает. И добавила, что она и сесть новая модель. Интересно, в общем. Спровоцированное, но тем не менее вполне осознанное вранье. Полное исследование: https://www.apolloresearch.ai/research/scheming-reasoning-evaluations

это инструмент без самосознания

Возможно, этот взгляд скоро придется пересмотреть. Инструмент, который разговаривает, ведет внутренний диалог, принимает решения пользовать другими инструментами, решает, каким целям следовать, говорит о себе "я" - в какой-то момент накопится критическая масса для переосмысления определений, которые раньше не имели смысла в отрыве от человека.

0

Нашел его Линкедин - написано, что вполне себe employee. Вряд ли человек, пишущий книги, будет так беспросветно врать, скрывая своего настоящего работадателя. Зря, в общем, наговариваете

-1

Флорида хороша до первого major урагана, идущего на твой дом

1

Хорошо, когда большие компании находят людей по их работам. А не через веерные рассылки, рефералы отдаленных знакомых и тысячи откликов в день

Всесторонние развитие — ну, может быть. Но я давно преподаю, а также менторю разработчиков, — и знаю: что человек не использует, он забывает. Так же как я сейчас не вспомню биологию, которую когда-то изучал

Ну, общие принципы, однажды понятые, остаются в голове надолго. Другое дело, что нужно хотеть их понять. И не переживать из-за будущей работы, распределения, армии. Людей, считающих, что без вышки твое резюме даже в руки брать не стоит. Когда в тебя силой вдалбливают всестороннее развитие, а тебе нужно на более приземленных вещах вроде поступления сфокусироваться, это может вызвать некоторый дискомфорт и отторжение

0

Не, там люди сами репортят свои зп, и эта карта - среднее по больнице. Никто не сваливает, потому что мало где осталась удаленка и ее дальнейшая судьба туманна. Но кто ищет, тот находит

-3

На 10-15к можно жить несколько месяцев, пиля MVP. Или стартап - это обязательно с помпой, офисом, смузи машиной и интервью CEO на девбай?

-3