Комментарии

Сейчас уже есть штуки поинтереснее просто чатботов. Инструменты вроде Cursor, Windsurf, Cline могут иметь доступ ко всему проекту и работать над задачами, а не только отвечать на вопросы. Еще не очень самостоятельно - их нужно мониторить и направлять, но это уже похоже на полноценную автоматизацию с делегированием работы.

Но когда Зак говорит, что у них уже мидлов автоматизируют, я почему-то не верю.

-2

Засчет чего сократились затраты раза в 2? Я часто слышу про автоматизацию, но с примерами всегда туго. Как лично вам ИИ помогает в работе?

2

Хорошо, что есть, кому поправить.

Давайте я вам посчитаю. Релиз GPT-4 был 14 марта 2023 года. Это 689 дней от сегодня. Это 1,89 года. А потом будете обижаться, когда вас на ИИ заменят.

0

но применение дистилляции для создания конкурирующих моделей нарушает условия пользования OpenAI

Но при этом они предоставляют такую услугу через API. Использовать на своей страх и риск, получается. Сегодня ты просто делаешь свой AI girlfriend пет проект, а завтра OpenAI видит в тебе конкурента и берет за...

0

В их научной бумаге. Под "сам" я понимаю обучение с покреплением без учителя (reinforcement learning), До сих пор никому не удавалось применить его к LLM. У всех стандартная комба после pre-training фазы - fine+tunning и RLHF (обучение с учителем, где учитель - это reward model и/или человек). Это дорого, сложно и медленно. И это не от хорошей жизни - применить RL к тексту сложно. Но это лучшее, что есть в AI. Любая задача решаема, если только найти правильную reward function. Ребята из DeepSeek нашли. У них там много разных новых оптимизаций, которые тоже интересны. Но RL - это главное, это то, почему их работу называют прорывом.

Чат ЖПТ, возможно, помогал генерировать данные для этого самого RL. И в этом нет ничего необычного - все так делают. Но обычно все собственные модели используют. Хотя кто их знает - практика показывает, что проще читерить и потом извиняться, чем сразу играть по правилам. OpenAI ищет формальные поводы для суда. Но это никак не отменяет достижений команды DeepSeek. Их подход с RL и остальные оптимизации скоро переипользуют все.

0

Но ведь оно работает. Какая мне разница, настоящий там интеллект или муляж? Хотите называть БД - ну, называйте. Вы не один такой - это адекватное упрощение. Я даю этой БД задачу, и она ее выполняет. Задачу не просто написать хайку про программирование, а посмотреть в один сервис, затем в другой, затем вот в эти примеры тестов и написать новый тест на вон тот кусок непокрытой функциональности. И эта БД берет и пишет. Планирует сначала, потом идет по плану - это не один запрос. Когда нужно, может обратиться к файловой системе, сходить в интернет, что-то запустить в консоли. Принимает фитбек в любой момент, не спорит, но говорит, когда я не прав. Никак иначе, кроме как пониманием я это называть не могу.

Вам не нравится название, вы требуете, чтобы ИИ переименовали во что-то, где не фигурирует слово "интеллект"? Я не против. Искуственная бестолочь тоже годится.

Откуда в вас самих интеллект берется? Мысли? Сознание? Слыхали про термин "философский зомби" или "китайская команта"? Как мне понять, что вы тоже не муляж? Чем вы отличаетесь от БД? Текст вы генерите почти одинаковый.

Еще на википедии у слова " intelligence" по меньшей мере 8 определений: https://en.wikipedia.org/wiki/Intelligence То есть, как бы, существует широта взглядов и разница мнений. Поэтому решает практика, а не философские разглагольствования о том, может ли линейная алгебра создать разум. А кучка молекул углерода может создать жизнь?

0

Вот, что сам ДипСик по этому поводу думает:

«Нет интеллекта» — ИИ не обладает сознанием, но демонстрирует возникающие свойства (анализ контекста, логика), недоступные простым «базам данных».
Не «перцептроны» — Современные модели используют трансформеры с механизмами само-внимания, а не линейную математику перцептронов.
Не T9 — Генерация текста основана на семантике и синтаксисе, а не на частоте слов.
Узкие темы — Да, ограничения есть, но их смягчают дообучением на специфичных данных.
Итог: DeepSeek — не «разум», но и не продвинутый T9. Это сложная система, имитирующая рассуждения через анализ паттернов в данных, с гибкостью, но в рамках обучения.

Мне кажется, он обиделся. В вашей голове мысли тоже не искра божественная зажигает. Те же нейроны, дизайн посложнее, токены более абстрактные, программный луп навороченнее, но в сущности все то же самое. ДипСик еще и обучался сам путем проб и ошибок. Чату ЖПТ и прочим истины вдалбливали, а этот сам их вывел на основе правил.

0

Идет, вы просто не хотите видеть. С вами компьютер разговаривает, понимает, что вы от него хотите, на кнопки может нажимать, в консоль и интернет ходить. По Сан-Франциско самоуправляемые машины ездят без водителей. Робо-собаки бегают по любым поверхностям. Много чего еще. Сами же писали, что DeepSeek на ноуте запускаете. Ну, так поставьте еще Cline поверх VSCode, дайте доступ к проекту и пару задач - будет ходить по всему дереву файлов, править нужное, дифы на ревью давать, сам в консоли компилировать, проверять на ошибки. Отлично работает, личный джун для тестов и всякой мелочи. C DeepSeek API это практически ничего не стоит. Но, конечно, сидеть и писать про пропаганду, распилы и шарлатанов веселее. Плюсики приносит.

-1

Нет, не навалом. Они нашли способ применить reinforcement learning к LLM без участия человека или другого ИИ. Это биг дил. И создали reasoning модель, сравнимую с O1, которая самая крутая на сегодняшний день. И выложили это в общий доступ не только веса, но и код с инструкцией, как тренировать. И, если не врут, то стоило это все всего 5 миллионов, тогда как один только запуск новой модели OpenAI на Ark-AGI бенчмарках стоил 2 миллиона. А врут или нет, скоро это выяснится, т.к. можно проверить. Но вам, конечно все и так ясно и понятно.

-2

пристегните ремни, будет много текста, потому что мне лень работать

Все нейронки между собой похожи. Берут последовательность каких-то данных на вход, превращают в матрицу чисел, прогоняют через разные группы слоёв и конвертируют обратно в данные. Разница только в архитектуре слоёв и способе превращения данных в числа. При этом LLM называют бредогенераторами, но никто не пытается спорить с эффективностью ИИ, играющих в шахматы. Почему? Главная проблема LLM в том, что они сами не могут оценить результат своей работы. И в принципе никто не может - нет алгоритма. Как понять, хороший они выдали текст или нет? Никак - нужен человек или более умный ИИ для интуитивной оценки результата. Текст не детерминирован, нет однозначно правильного ответа. Это очень серьёзное ограничение, которое не позволяет нейронке самостоятельно совершенствовать свои результаты или хотя бы проверить их. Шахматные ИИ не имеют такого ограничения, потому что у них есть очень простая цель - победить в игре. Любой ход либо ведёт к этой цели, либо нет. Нужно только научиться понимать, как оценить этот ход, но для этого существуют алгоритмы. Не нужны сложные данные, не нужны люди — они могут играть сами с собой до бесконечности, постоянно совершенствуясь. Как итог, шахматные ИИ обошли и людей, и все известные алгоритмы. И не только шахматные: го, Dota, StarCraft - ИИ победил везде. После этого интерес к играм упал - в любой игре с конечной целью ИИ победит. И никто с этим не спорит.

AlphaFold ближе к моделям, которые решают задачи регрессии, чем к LLM. Он предсказывает 3D-структуру белка на основе последовательности аминокислот. В отличие от текста, результат детерминирован, что уже большое преимущество. Результат можно проверить на адекватность программно, прогнать через симуляции молекулярной динамики или сравнить с экспериментальными данными. С текстом такого сделать нельзя. AlphaFold не использует reinforcement learning, как шахматные модели, так что он всё-таки ограничен качеством данных и валидацией. Он не может сам себя улучшать. Но он галлюцинирует куда меньше, чем LLM. Он показал настолько хорошие результаты в моделировании белков, что принес своим создателям Нобелевскую премию по химии в 2024 году. То есть результаты его работы впечатлили прежде всего химиков, а не только специалистов по ИИ. AlphaFold нашел способ получить ответ для NP-complete проблемы за конечное время с удовлетворительной погрешностью.

По вашему комменту мне показалось, что речь скорее о чатботах, к которым всё чаще прибегают при написании научных работ. И поэтому качество этих работ падает. Если ваши знакомые пробовали работать с AlphaFold и остались недовольны результатами, тогда снимаю шляпу - молодцы, держат руку на пульсе и не боятся бросить вызов мировому научному сообществу. Без иронии. Я знаю людей, которые опровергают теорию относительности, но я считаю их умнее себя, поэтому не берусь судить, кто тут прав. Если нет, то пусть попробуют - AlphaFold в открутом доступе и запускается на домашнем компьютере.

0

Можно и на больше делить. DeepSeek API стоит примерно в 50 раз дешевле, чем OpenAI O1 API. И заодно показывает все внутренние "мысли", а не только короткую выжимку, как OpenAI. Там бывают занятные рассуждения:
https://pbs.twimg.com/media/GiIkJsqboAI87j_.jpg:large

-3

Тут речь про AlphaFold, это не LLM. Это модель, которая обучалась на известных конфигурациях белков выводить новые по заданным условиям. И за которую ее создатели получили Нобелевку по химии в прошлом году.

0

Люди не могут создать искуственный интеллект потому что не представляют как функционирует их собственный

Как эти две вещи связаны? ИИ - это просто термин для описания группы алгоритмов. У слова "интеллект" вообще нет единого определения

Концепции перцептрона aka нейронные сети уже 70 лет (1957 год), а воз и ныне там

Просто теория опережает технические возможности. Железо только недавно подтянулось до нужного уровня. Вопрос больше в том, можно ли представить интеллект функцией. Если да, то есть доказанная теория (и уже довольно много практики) о том, что эту функцию можно аппроксимировать нейронками. До какой-то степени этого удалось добиться. И вроде как в потолок пока не уперлись - эту аппроксимацию продолжают улучшать буквально каждый месяц. Может, упрутся через год другой, кто знает

0

Когда-то очень давно на Хабре появилась вот такая статья: https://habr.com/ru/articles/116659/ Домашний реатор во всех подробностях. Помню, как читал ее и глаза на лоб лезли. Потом все, конечно, раскусили и догадались, что это первоапрельская шутка. Но первые пару дней никто не был в состоянии провести фактчекинг. Автор очень ловко перекрутил факты с вымыслом, щедро насыпал технических подробностей - выглядело правдоподобно.

-1

А в чем прав? Слова одного против слов другого. На деле же они - конкуренты. Оба хотят быть лидерами ИИ гонки. Оба хотят, чтобы именно их ИИ был внедрен в гос. структуры и оборонку. Оба хотят себе многомиллиардные датацентры. А что денег нет - никто ж не собирается из своего кармана платить. С такими проектами обычно ищут арабских шейхов, готовых вложить миллиард другой в разработки будущего.

В ноябре Илон сам собирал 6 миллиардов только на чипы для своего xAI датацентра. Он от Сэма отличается только тем, что меньше языком мелет про свой ИИ. А траты, цели и методы у них примерно одинаковые.

0

Реальные текстовые данные уже давно закончились. И StackOverflow не может решить эту проблему - даже если все программисты мира бросятся активно спрашивать и отвечать. Все равно будет мало для создания следующего поколения монолитных моделей. Все сейчас генерируют синтетические данные своими большими моделями для создания маленьких. А маленькие генерируют "идеи" в составе "думающих" моделей. Или работают с ними в тандеме с использованием всяких техник вроде speculative decoding. И там пока потолка не нащупали. OpenAI использовала o1 модель для обучения o3, а o3 теперь обучает что-то следующее. Недавно их догнали Google и DeepSeek со своими "думающими" моделями, и всем стало ясно, что в эту сторону нужно копать и дальше. И нехватка данных никого не останавливает. Это похоже на переход процессоров от вертикального масштабирования к горизонтальному, чтобы обойти физические ограничения

0

А расскажите, как работают любительские соревнования и команды. Вот, скажем, мой рейтинг в районе 2000 - это хорошо для любителя, но это ничто на хоть сколько-нибудь профессиональном уровне. Если Магнус Карлсен решит заехать на областной чемпионат в Жодино, его кто-то остановит от массового избиения детей и выноса главного приза? В чем мотивация участия в турнирах, зная, что ты, скорее всего, не победишь, т.к. там точно будет кто-то с рейтингом выше. Даже если вахтер на входе будет отфильтровывать чемпионов мира, какие-нибудь мастера с рейтингом повыше 2000 все равно прошмыгнут. Чудеса случаются, и люди на 800 очков ниже ловят чужих ферзей в ловушки. Но редко. Все же, где-то после 1600-1800 ELO "зевки" заканчиваются. Так что мотивирует тратить кучу времени на подготовку и участие в соревнованиях? Или на любительском уровне подготовка не так важна и можно заявиться с тем же репертуаром, что и в онлайн играх на lichess?

Какой вообще рейтинг считается высоким? Когда уже можно говорить, что умеешь играть, а не "ну, так, немного... правила знаю". Автор, чего свой рейтинг не указал?

1

Ну, вот пока одни говорят, что трансформеры исчерпали себя, OpenAI релизит сразу несколько итераций своей "думающей" модели за год. Да, может, там не настоящий интеллект, а галлюцинирующая матрица, но многие текущие бенчмарки он побил. В смысле, побил человека в них. Пару месяцев назад были новости про какой-то супер-сложный математический бенчмарк, в котором все ведущие модели набирают не больше 2%. Ну, вот уже набирают 14%. Не успеваем тесты делать

А что есть решения эффективнее трансформеров, про это давно известно. Вот, может, Гугл как раз что-то такое и реализовал, раз под конец года обошел OpenAI во всех областях сразу

По мнению Лекуна, БЯМ не способны к логическому мышлению, не понимают физический мир

Ну, вот Илья Сатсковер считает, что таки понимают они мир. Чтобы решать задачу продолжения текста новым текстом, нужно понимать мир. Это может быть какое-то другое понимание, не как у человека, но какая разница. Мне кажется, это ученые одной категории, так что можно выбирать мнение любой из сторон

0

Если штука, имитирующая ум, становится неотличима от человека, то скоро вы ей будете объяснять, что она китайская комната

У OpenAI интересный договор с Microsoft. Как только они достигнут AGI, последний теряет доступ к новым моделям. Интересно, что они будут делать. Перепишут договор или OpenAI пойдет свою корпорацию строить

0