Впрочем, на счет вероятностей я не прав - там в конце есть фаза выборки токена из вектора. До нее процесс полностью детерминированный, в обучении вероятности тоже не участвуют. LLM не вероятностная модель. Это модель, в которой хранятся свойства, понятия, связи между ними, закодированные в числа. Каждый нейрон представляет собой такое свойство (вернее много свойств сразу). Работа с сетью - не поиск, а прогон входной матрицы через все ее свойства слой за слоем. Какие-то уходят в ноль, какие-то дают растущие значения - в конце все сходится в один вектор. Из него не обязательно выбирать один токен - весь вектор содержит полезную информацию. Но нам для интерпретации нужно что-то выбрать - только тут в игру вступают вероятности.
Просто у меня есть практика, а у вас нет. И азов у вас нет, потому что нигде в нейронке нету вероятностей. Вообще нигде, ни одной формулы. Аналогия с поисковиком хорошая для детей девятого класса, но никого поиска там тоже нет. Вы и сами не разбираетесь, и другим мешаете. Впрочем, я вижу, что другие не против.
Засунуть голову в песок и говорить, что оттуда плохо видно.
Возможно, если бы вы могли бросить в меня парочкой терминов, этот разговор имел бы больше смысла. Я перечислил названия моделей, клаудов, где они хостятся, и самые популярные агенты для кода. Если для вас это тарабарщина, ну о чем тогда речь? Вы ничем этим не пользовались, но уверенно спорите о состоянии технологии.
Эта статья - выжимка двух научных публикаций. Которые продолжают серию других публикаций. Там нет никакой магии, они подробно описали все, что сделали - любой может повторить. Но ок, маркетинг, так маркетинг.
Почему они же они не показали пример как их система пишет код который можно применять в продакшене?)
Да показали, вы просто не интересуетесь и не видите. Их модели доступны через API и в AWS Bedrock. Дальше уже дело техники, бюджета и желания - настроить агентов и работать с ними. Их уже довольно много, есть свой и у Антропик - Claude Code называется. Но мне он не нравится, я использую опенсорсные Roo Code и Aider в паре с Claude Sonnet 3.5/3.7 на AWS. Есть у нас и OpenAI модели в Azure, и Gemini на Vertex, и DeepSeek на собственных серверах. Но Клод самый лучший для моих инструментов. Я даю своим агентам проект и задачу - они автономно работают (ну, вернее, я сам настраиваю степень автономности). Я проверяю и параллельно работаю над чем-то другим. Их код - мой код, он идет в прод. Это не считается?
Если бы вы разобрались в самых элеметарных азах, LLM то не утверждали бы все то что выше написали
Какие-то алгоритмы есть. Один из самых известных - алгоритм Шора для разложения числа на простые множители. Но проблема в том, что его сложно понять без подготовки. В квантовых компьютерах нету традиционных и понятных операций с числами вроде AND или OR - там другие команды, работающие с массивами чего-то вроде взаимосвязанных вероятностей. И есть более высокоуровневые языки под конкретные эмуляторы.
Я согласен, что далеко с этим не уехать. Вакансий и правда нет. Студенты физмата еще имеют шанс попасть в лаборатории Гугла или IBM, а нам светит в лучшем случае общение с другими энтузиастами в Дискорде. Но если технология взлетит, можно оказаться в первых рядах тех, кто что-то понимает. И вполне себе откликаться на вакансии со своими поделками на Гитхабе. Примерно, как сейчас с ИИ. Но если не взлетит, все равно ок в качестве хобби. Квантовые компьютеры близки к магии.
Технологии типа LLM, это вероятностная модель, а не модель основанная на строгих логических рассуждениях
Ну, вот, например, последнее исследование от Антропик, которое показывает, что, даже просто угадывая следующее слово, модель внутри делает что-то похожее на рассуждения: https://www.anthropic.com/news/tracing-thoughts-language-model У них там есть специальная модель, в которой лучше видно, какие узлы внутри нейронки активируются, когда она генерирует слово. И вот ее, например, просят сложить два числа. В каких-то случаях она выдает ответ сразу - потому что просто запомнила его во время обучения. Но если числа более сложные, например 36 и 59, то внутри происходит кое-что странное. Каждое число активирует свою цепочку узлов, округляется, распадается на какие-то числа попроще. Модель приближает их к тому, что лучше знает. Потом все ветки сходятся в одну - и это ответ. Это немного похоже на то, как человек работает с такими числами в уме. Это похоже на логику. В статье несколько таких примеров. Когда нужно продолжить стих, модель активирует две группы веток - для смысла и для рифмы.
У всех компаний теперь есть "думающие" модели. Которые сначала геренят "мысли" - стену текста, из которой потом собирают финальный ответ. В этой стене текста модель сначала планирует ответ, разбирает задачу на подзадачи, идет по ним, корректирует нестыковки в сгенеренном тексте. И это помогает. Собственно, все лидирующие модели - думающие.
Ну, и последний уровень абстракции - цикл в коде, который запускает модель. Все приличные ассистенты для кода на каждый запрос пользователя выполняют целую кучу внутренних запросов к модели. Сначала просят ее собрать данные, потом сгенерить код, потом проверить, исправить ошибки, повторить, если нужно. Сами берут файлы из проекта, сам мержат в них изменения. Выходит дорого (много запросов, они все большие и тяжелые, думающие модели еще и мысли генерят для каждого промежуточного ответа), но намного эффективнее, чем если просто копипастить куски кода в чатбот.
Живой программист все еще лучше. Все эти новости про автоматизацию - хайп и скрытые сокращения на почве финансов. Но ваши рассуждения - это про то, что было год-полтора назад. В современных ИИ системах много логики на разных уровнях.
Это лучше, чем ничего, но сервера в США (в AWS и Azure) - это довольно опасно. Особенно сейчас, когда DOGE просто приходит, куда хочет. Слать правительство можно только до некоторой степени, пока оно не стучит в двери. Штукой для выбивания дверей. Мой VPN для торренов в Панаме, где у любителей бороться с терроризмом нет юрисдикции.
Если отбросить троллинг, то сейчас просто нет чатов, которым можно довериться. Никто не спрашивают у вас ключи, у вас их нет. Все приватные ключи у компаний под честное слово. Все root сертификаты тоже у них.
Единственное, что можно сделать, это вернуться в эпоху де-централизованных peer-to-peer решений.
Все может быть куда проще. Сначала тарифы для всего мира, а потом послабления в индивидуальном порядке. Удобный инструмент для торгов, который появился на ровном месте. Все слова и дейсвия Трампа нужно проверять временем - он сегодня одно говорит, а завтра другое.
Средний американец ждет перемен. В США разогналась инфляция, поднялись проценты по ипотеке, повысилась безработица. Все еще можно заработать много денег при желании, но люди без вышки и далеко идущих планов чувствуют, что беднеют. Им нет дела до всего, что происходит за пределами Штатов. Им надоели демократы, которые больше обеспокоены внешними проблемами и помощью всему миру, несмотря на растущий гос. долг. Средний американец не против, чтобы Трамп все сжег и построил заново.
Во времена Тьюринга было нормально думать, что если компьютер сможет хорошо разговаривать, то в нем точно будет интеллект. Сейчас все понимают, что это не так. Или не совсем так - даже есть интеллект и есть, то он какой-то другой, трудно сравнимый с человеческим. Тест Тьюринга потерял актуальность. Думаю, он уже давно пройден - все зависит от того, кого посадить тестировать. Специалист по ИИ раскусит любую модель, мою бабушку впечатлит и GPT-2.
На циферблат часов смотрит другая модель, которая не умеет разговаривать. Она выдает массив объектов и координат. К ней вряд ли применимо понятие интеллекта.
Бессмысленно сравнивать нейроны ИИ и живых существ. У них общего только название. Да и то, в литературе обычно вместо "нейронов" используют слово "юнит".
Что вы предлагаете? Не пользоваться, байкотировать, писать гадости на стенах? Может быть, серверные поджигать? Если уж на кого-то и злиться, то на тех, кто инвестирует в ИИ миллиарды, ожидая скорой финансовой выгоды. Это наши с вами работадатели. ИИ пока что убыточен, так что как бы там наивные программисты не хайповали - это не влияет ровным счетом ни на что.
Есть чему и есть на чем. Там другая математика, свои языки и алгоритмы. Можно разбираться и пробовать на эмуляторах. Если задаться целью, то можно и до реального квантового процессора дотянуться. Но это нужно иметь фантазию и желание погружаться в науку, а не на вакансии в аутсорсе смотреть.
Статья норм, но как-то так написана, что трудно понять, о чем речь.
Тут смешаны две разные вещи. Reward Hacking - это термин из мира, где ИИ решает задачи с хорошо понятной целью, которую можно оценить формулой. Например, игра в шахматы. Каждая позиция имеет оценку, каждый ход меняет ее в полжительную или отрицательную сторону. Значит, после каждого хода алгоритму можно дать фитбек, а он будет на него реагировать. Может получится так, что модель будет получать хороший фитбек за какие-то неправильные действия. Например, если она найдет баг в шахматной программе, который мгновенно приводит к победе, она тут же начнет им пользоваться. Это и есть reward hacking. Это обычно означает, что способ оценки и фитбек не достаточно хороши. Подбор reward function - это самая сложная проблема в таких алгоритмах.
С LLM все сложнее, т.к. нету четкого способа оценить ответ. Reward Hacking тут заключается в другом. Модель может начать давать такие ответы, которые кажутся хорошими, но на самом деле они предвзяты или искажены. Довольно очевидный способ обнаруждения такого - мониторить "мысли". По умолчанию модели не пытаются ничего в них скрывать и выдают себя с потрохами. Но есть интересные исследования, в которым модели начинали менять свои мысли, когда узнавали, что их читают. Причем, все - это не только особенность какой-то одной компании. Никто не знает, почему и как с этим бороться. Собственно, статья о том, что мониторинг и правка "плохих" мыслей не решают проблему - модель все равно найдет способы работать не так, как задумано, на долгом отрезке времени.
ИИ запчасть по вин номеру подобрать не может , дать контакт логиста дешёвого с точной ценой для перевоза груза между континентами, найти нужный контакт , дать правильную бюрократическую процедуру натурализации например водительского удостоверения в новой стране экспату, отдать email рекрутера или даже правильный контакт снимающего рекрутера в большой компании
Все это ИИ, как раз, может. Нужно только дать ему инструменты поиска, и цикл, чтоб он мог в нем немного поработать перед финальным ответом. И модели для realtime разговора с вызовом инструментов в процессе уже есть. Думаю, что работам, где нужно просто разговаривать, задавать вопросы, записывать ответы и самому на что-то отвечать, осталось очень не долго.
Было бы интересно послушать про конкретные инструменты. С ATS системами все понятно - они были и до ИИ. С резюме тоже все понятно. А что за боты-автозаполнители? Что за ИИ ассистенты на интервью?
Не так-то просто все это настроить и эффективно использовать. Попробуйте, например, заставить ИИ зарегаться на девбай и оставить коммент. Даже OpenAI Operator за $200/месяц может надорваться. Возможно, если человек смог обойти все ваши ATS и интервью с помощью каких-то инструментов, он неплохой инженер.
И, по-моему, вы никак не ответили на вопрос в заголовке. На данном эпате рекрутер - бутылочное горлышко. Он тратит меньше минуты на просмотр резюме, он не ходит по ссылкам на гитхаб, не ищет технические публикации кандидата, не смотрит его stackoverflow профиль. Рекрутер в принципе не обращает внимение на кандидата, если тот не смог пробиться через предварительные фильтры. Возможно, ИИ-рекрутер найдет на все это время.
Комментарии
Впрочем, на счет вероятностей я не прав - там в конце есть фаза выборки токена из вектора. До нее процесс полностью детерминированный, в обучении вероятности тоже не участвуют. LLM не вероятностная модель. Это модель, в которой хранятся свойства, понятия, связи между ними, закодированные в числа. Каждый нейрон представляет собой такое свойство (вернее много свойств сразу). Работа с сетью - не поиск, а прогон входной матрицы через все ее свойства слой за слоем. Какие-то уходят в ноль, какие-то дают растущие значения - в конце все сходится в один вектор. Из него не обязательно выбирать один токен - весь вектор содержит полезную информацию. Но нам для интерпретации нужно что-то выбрать - только тут в игру вступают вероятности.
Просто у меня есть практика, а у вас нет. И азов у вас нет, потому что нигде в нейронке нету вероятностей. Вообще нигде, ни одной формулы. Аналогия с поисковиком хорошая для детей девятого класса, но никого поиска там тоже нет. Вы и сами не разбираетесь, и другим мешаете. Впрочем, я вижу, что другие не против.
Что вы хотите, чтобы я показал? Проект, продукт? Как вы поймете, что они написаны ИИ? ИИ код никак не отличается от человеческого (разве что коментов больше) - нужно видеть процесс. Если в какой-то гитхаб репе будет написано, что 100% сгенерено ИИ, вы поверите? Идите на ютуб и ищите "roocode project showcase". Что-нибудь вроде этого https://www.youtube.com/watch?v=sOpryi5N5WA&ab_channel=MichaelFricker или этого https://www.youtube.com/watch?v=vooolVLItTQ&ab_channel=GosuCoder
Засунуть голову в песок и говорить, что оттуда плохо видно.
Возможно, если бы вы могли бросить в меня парочкой терминов, этот разговор имел бы больше смысла. Я перечислил названия моделей, клаудов, где они хостятся, и самые популярные агенты для кода. Если для вас это тарабарщина, ну о чем тогда речь? Вы ничем этим не пользовались, но уверенно спорите о состоянии технологии.
Я вам на это уже отвечал, но вы не хотите со мной разговаривать и зачем-то репостите одно и то же из темы в тему. Держите плюс, и разойдемся на этом
Эта статья - выжимка двух научных публикаций. Которые продолжают серию других публикаций. Там нет никакой магии, они подробно описали все, что сделали - любой может повторить. Но ок, маркетинг, так маркетинг.
Да показали, вы просто не интересуетесь и не видите. Их модели доступны через API и в AWS Bedrock. Дальше уже дело техники, бюджета и желания - настроить агентов и работать с ними. Их уже довольно много, есть свой и у Антропик - Claude Code называется. Но мне он не нравится, я использую опенсорсные Roo Code и Aider в паре с Claude Sonnet 3.5/3.7 на AWS. Есть у нас и OpenAI модели в Azure, и Gemini на Vertex, и DeepSeek на собственных серверах. Но Клод самый лучший для моих инструментов. Я даю своим агентам проект и задачу - они автономно работают (ну, вернее, я сам настраиваю степень автономности). Я проверяю и параллельно работаю над чем-то другим. Их код - мой код, он идет в прод. Это не считается?
Парировать такое просто нечем, сдаюсь
Какие-то алгоритмы есть. Один из самых известных - алгоритм Шора для разложения числа на простые множители. Но проблема в том, что его сложно понять без подготовки. В квантовых компьютерах нету традиционных и понятных операций с числами вроде AND или OR - там другие команды, работающие с массивами чего-то вроде взаимосвязанных вероятностей. И есть более высокоуровневые языки под конкретные эмуляторы.
Я согласен, что далеко с этим не уехать. Вакансий и правда нет. Студенты физмата еще имеют шанс попасть в лаборатории Гугла или IBM, а нам светит в лучшем случае общение с другими энтузиастами в Дискорде. Но если технология взлетит, можно оказаться в первых рядах тех, кто что-то понимает. И вполне себе откликаться на вакансии со своими поделками на Гитхабе. Примерно, как сейчас с ИИ. Но если не взлетит, все равно ок в качестве хобби. Квантовые компьютеры близки к магии.
Разве? Статья про факт прохождения теста Тьюринга, а не про то, что это означает. Единственный вывод:
Ни слова про интеллект и разумность.
Ну, вот, например, последнее исследование от Антропик, которое показывает, что, даже просто угадывая следующее слово, модель внутри делает что-то похожее на рассуждения: https://www.anthropic.com/news/tracing-thoughts-language-model У них там есть специальная модель, в которой лучше видно, какие узлы внутри нейронки активируются, когда она генерирует слово. И вот ее, например, просят сложить два числа. В каких-то случаях она выдает ответ сразу - потому что просто запомнила его во время обучения. Но если числа более сложные, например 36 и 59, то внутри происходит кое-что странное. Каждое число активирует свою цепочку узлов, округляется, распадается на какие-то числа попроще. Модель приближает их к тому, что лучше знает. Потом все ветки сходятся в одну - и это ответ. Это немного похоже на то, как человек работает с такими числами в уме. Это похоже на логику. В статье несколько таких примеров. Когда нужно продолжить стих, модель активирует две группы веток - для смысла и для рифмы.
У всех компаний теперь есть "думающие" модели. Которые сначала геренят "мысли" - стену текста, из которой потом собирают финальный ответ. В этой стене текста модель сначала планирует ответ, разбирает задачу на подзадачи, идет по ним, корректирует нестыковки в сгенеренном тексте. И это помогает. Собственно, все лидирующие модели - думающие.
Ну, и последний уровень абстракции - цикл в коде, который запускает модель. Все приличные ассистенты для кода на каждый запрос пользователя выполняют целую кучу внутренних запросов к модели. Сначала просят ее собрать данные, потом сгенерить код, потом проверить, исправить ошибки, повторить, если нужно. Сами берут файлы из проекта, сам мержат в них изменения. Выходит дорого (много запросов, они все большие и тяжелые, думающие модели еще и мысли генерят для каждого промежуточного ответа), но намного эффективнее, чем если просто копипастить куски кода в чатбот.
Живой программист все еще лучше. Все эти новости про автоматизацию - хайп и скрытые сокращения на почве финансов. Но ваши рассуждения - это про то, что было год-полтора назад. В современных ИИ системах много логики на разных уровнях.
Это лучше, чем ничего, но сервера в США (в AWS и Azure) - это довольно опасно. Особенно сейчас, когда DOGE просто приходит, куда хочет. Слать правительство можно только до некоторой степени, пока оно не стучит в двери. Штукой для выбивания дверей. Мой VPN для торренов в Панаме, где у любителей бороться с терроризмом нет юрисдикции.
Если отбросить троллинг, то сейчас просто нет чатов, которым можно довериться. Никто не спрашивают у вас ключи, у вас их нет. Все приватные ключи у компаний под честное слово. Все root сертификаты тоже у них.
Единственное, что можно сделать, это вернуться в эпоху де-централизованных peer-to-peer решений.
Все может быть куда проще. Сначала тарифы для всего мира, а потом послабления в индивидуальном порядке. Удобный инструмент для торгов, который появился на ровном месте. Все слова и дейсвия Трампа нужно проверять временем - он сегодня одно говорит, а завтра другое.
Средний американец ждет перемен. В США разогналась инфляция, поднялись проценты по ипотеке, повысилась безработица. Все еще можно заработать много денег при желании, но люди без вышки и далеко идущих планов чувствуют, что беднеют. Им нет дела до всего, что происходит за пределами Штатов. Им надоели демократы, которые больше обеспокоены внешними проблемами и помощью всему миру, несмотря на растущий гос. долг. Средний американец не против, чтобы Трамп все сжег и построил заново.
Во времена Тьюринга было нормально думать, что если компьютер сможет хорошо разговаривать, то в нем точно будет интеллект. Сейчас все понимают, что это не так. Или не совсем так - даже есть интеллект и есть, то он какой-то другой, трудно сравнимый с человеческим. Тест Тьюринга потерял актуальность. Думаю, он уже давно пройден - все зависит от того, кого посадить тестировать. Специалист по ИИ раскусит любую модель, мою бабушку впечатлит и GPT-2.
На циферблат часов смотрит другая модель, которая не умеет разговаривать. Она выдает массив объектов и координат. К ней вряд ли применимо понятие интеллекта.
Бессмысленно сравнивать нейроны ИИ и живых существ. У них общего только название. Да и то, в литературе обычно вместо "нейронов" используют слово "юнит".
ИИ пишет то, что вы ему говорите. Инновации на вас, на нем только набор текста
Что вы предлагаете? Не пользоваться, байкотировать, писать гадости на стенах? Может быть, серверные поджигать? Если уж на кого-то и злиться, то на тех, кто инвестирует в ИИ миллиарды, ожидая скорой финансовой выгоды. Это наши с вами работадатели. ИИ пока что убыточен, так что как бы там наивные программисты не хайповали - это не влияет ровным счетом ни на что.
Есть чему и есть на чем. Там другая математика, свои языки и алгоритмы. Можно разбираться и пробовать на эмуляторах. Если задаться целью, то можно и до реального квантового процессора дотянуться. Но это нужно иметь фантазию и желание погружаться в науку, а не на вакансии в аутсорсе смотреть.
У Маска свой ИИ (Grok 3), самый мощный в мире датацентр с gpu чипами и доступ ко всем документам всех структур США. Просто к слову
Какой мессенжер порекомендуете?
Статья норм, но как-то так написана, что трудно понять, о чем речь.
Тут смешаны две разные вещи. Reward Hacking - это термин из мира, где ИИ решает задачи с хорошо понятной целью, которую можно оценить формулой. Например, игра в шахматы. Каждая позиция имеет оценку, каждый ход меняет ее в полжительную или отрицательную сторону. Значит, после каждого хода алгоритму можно дать фитбек, а он будет на него реагировать. Может получится так, что модель будет получать хороший фитбек за какие-то неправильные действия. Например, если она найдет баг в шахматной программе, который мгновенно приводит к победе, она тут же начнет им пользоваться. Это и есть reward hacking. Это обычно означает, что способ оценки и фитбек не достаточно хороши. Подбор reward function - это самая сложная проблема в таких алгоритмах.
С LLM все сложнее, т.к. нету четкого способа оценить ответ. Reward Hacking тут заключается в другом. Модель может начать давать такие ответы, которые кажутся хорошими, но на самом деле они предвзяты или искажены. Довольно очевидный способ обнаруждения такого - мониторить "мысли". По умолчанию модели не пытаются ничего в них скрывать и выдают себя с потрохами. Но есть интересные исследования, в которым модели начинали менять свои мысли, когда узнавали, что их читают. Причем, все - это не только особенность какой-то одной компании. Никто не знает, почему и как с этим бороться. Собственно, статья о том, что мониторинг и правка "плохих" мыслей не решают проблему - модель все равно найдет способы работать не так, как задумано, на долгом отрезке времени.
Все это ИИ, как раз, может. Нужно только дать ему инструменты поиска, и цикл, чтоб он мог в нем немного поработать перед финальным ответом. И модели для realtime разговора с вызовом инструментов в процессе уже есть. Думаю, что работам, где нужно просто разговаривать, задавать вопросы, записывать ответы и самому на что-то отвечать, осталось очень не долго.
Было бы интересно послушать про конкретные инструменты. С ATS системами все понятно - они были и до ИИ. С резюме тоже все понятно. А что за боты-автозаполнители? Что за ИИ ассистенты на интервью?
Не так-то просто все это настроить и эффективно использовать. Попробуйте, например, заставить ИИ зарегаться на девбай и оставить коммент. Даже OpenAI Operator за $200/месяц может надорваться. Возможно, если человек смог обойти все ваши ATS и интервью с помощью каких-то инструментов, он неплохой инженер.
И, по-моему, вы никак не ответили на вопрос в заголовке. На данном эпате рекрутер - бутылочное горлышко. Он тратит меньше минуты на просмотр резюме, он не ходит по ссылкам на гитхаб, не ищет технические публикации кандидата, не смотрит его stackoverflow профиль. Рекрутер в принципе не обращает внимение на кандидата, если тот не смог пробиться через предварительные фильтры. Возможно, ИИ-рекрутер найдет на все это время.