Все это, возможно, потому, что внедрить ИИ можно хорошо, а можно плохо. В моей компании, например, активно внедряют гугловые ИИ, включая их инструменты для кодинга - Gemini Code assist и gemini-cli. Было большое внутреннее исследование, где сравнивались разные решения и gemini code assist все победил. Проблема в том, что это плохой инструмент. Стоит дать ему задачу, где нужно править несколько файлов в проекте, как он непременно свалится с ошибкой. Слак канал саппорта с представителями Гугла полон жалоб. Хорошие инструменты (вроде Claude Code или хотя бы Cursor) в исследование почему-то не попали. Да и вцелом, если почитать отчет, там какие-то совсем не те метрики выбора инструментов. Получается, наши топы купились на громкое имя Гугла и презентации, а своих вайбкодеров спросить забыли. Похожие истории у всех моих знакомых. У кого-то Cody внедрили, у кого-то Devin AI - хорошие сэйлсы продают AI мусор, а менеджеры рисуют фейковые метрики.
Ну, и все эти проценты роста продуктивности часто вызывают сомнение. Никто никогда не говорит, как именно замеряет эту самую продуктивность. Количество уязвимостей - тоже мутная метрика. Взял старую версию библиотеки - и вот у тебя сотни уязвимостей. Обновил - и ты чемпион по их закрытию. Прибыль - показатель получше, но опять же - это точно ИИ виноват?
Меня как-то из-за пирсинга на работу в банк не взяли. Еще, помню, на военной кафедре сказали прийти в костюмах, а потом в этих самых костюмах повезли на стройку национальной библиотеки.
Все эти пляски вокруг внешнего вида офисного планктона указывают на бесхребетность HR и некоторую неадекватность начальства. Что-то вроде составления гороскопов на команду или окуривания офиса шалфеем.
Anthropic никогда не добавляли никакие уровни приоритетной обработки. У них подписка: чем больше платишь, тем больше запросов получаешь. Закончились запросы - сидишь и ждешь следующего 5-часового окна. Если речь про API, то там чем больше денег на счету, тем выше лимиты.
Это как раз Cursor придумали быстрые и медленные токены. Первые Х токенов по подписке быстрые, а после скорость сильно падает, пока новые месяц не наступит.
Впрочем, на счет вероятностей я не прав - там в конце есть фаза выборки токена из вектора. До нее процесс полностью детерминированный, в обучении вероятности тоже не участвуют. LLM не вероятностная модель. Это модель, в которой хранятся свойства, понятия, связи между ними, закодированные в числа. Каждый нейрон представляет собой такое свойство (вернее много свойств сразу). Работа с сетью - не поиск, а прогон входной матрицы через все ее свойства слой за слоем. Какие-то уходят в ноль, какие-то дают растущие значения - в конце все сходится в один вектор. Из него не обязательно выбирать один токен - весь вектор содержит полезную информацию. Но нам для интерпретации нужно что-то выбрать - только тут в игру вступают вероятности.
Просто у меня есть практика, а у вас нет. И азов у вас нет, потому что нигде в нейронке нету вероятностей. Вообще нигде, ни одной формулы. Аналогия с поисковиком хорошая для детей девятого класса, но никого поиска там тоже нет. Вы и сами не разбираетесь, и другим мешаете. Впрочем, я вижу, что другие не против.
Засунуть голову в песок и говорить, что оттуда плохо видно.
Возможно, если бы вы могли бросить в меня парочкой терминов, этот разговор имел бы больше смысла. Я перечислил названия моделей, клаудов, где они хостятся, и самые популярные агенты для кода. Если для вас это тарабарщина, ну о чем тогда речь? Вы ничем этим не пользовались, но уверенно спорите о состоянии технологии.
Эта статья - выжимка двух научных публикаций. Которые продолжают серию других публикаций. Там нет никакой магии, они подробно описали все, что сделали - любой может повторить. Но ок, маркетинг, так маркетинг.
Почему они же они не показали пример как их система пишет код который можно применять в продакшене?)
Да показали, вы просто не интересуетесь и не видите. Их модели доступны через API и в AWS Bedrock. Дальше уже дело техники, бюджета и желания - настроить агентов и работать с ними. Их уже довольно много, есть свой и у Антропик - Claude Code называется. Но мне он не нравится, я использую опенсорсные Roo Code и Aider в паре с Claude Sonnet 3.5/3.7 на AWS. Есть у нас и OpenAI модели в Azure, и Gemini на Vertex, и DeepSeek на собственных серверах. Но Клод самый лучший для моих инструментов. Я даю своим агентам проект и задачу - они автономно работают (ну, вернее, я сам настраиваю степень автономности). Я проверяю и параллельно работаю над чем-то другим. Их код - мой код, он идет в прод. Это не считается?
Если бы вы разобрались в самых элеметарных азах, LLM то не утверждали бы все то что выше написали
Какие-то алгоритмы есть. Один из самых известных - алгоритм Шора для разложения числа на простые множители. Но проблема в том, что его сложно понять без подготовки. В квантовых компьютерах нету традиционных и понятных операций с числами вроде AND или OR - там другие команды, работающие с массивами чего-то вроде взаимосвязанных вероятностей. И есть более высокоуровневые языки под конкретные эмуляторы.
Я согласен, что далеко с этим не уехать. Вакансий и правда нет. Студенты физмата еще имеют шанс попасть в лаборатории Гугла или IBM, а нам светит в лучшем случае общение с другими энтузиастами в Дискорде. Но если технология взлетит, можно оказаться в первых рядах тех, кто что-то понимает. И вполне себе откликаться на вакансии со своими поделками на Гитхабе. Примерно, как сейчас с ИИ. Но если не взлетит, все равно ок в качестве хобби. Квантовые компьютеры близки к магии.
Технологии типа LLM, это вероятностная модель, а не модель основанная на строгих логических рассуждениях
Ну, вот, например, последнее исследование от Антропик, которое показывает, что, даже просто угадывая следующее слово, модель внутри делает что-то похожее на рассуждения: https://www.anthropic.com/news/tracing-thoughts-language-model У них там есть специальная модель, в которой лучше видно, какие узлы внутри нейронки активируются, когда она генерирует слово. И вот ее, например, просят сложить два числа. В каких-то случаях она выдает ответ сразу - потому что просто запомнила его во время обучения. Но если числа более сложные, например 36 и 59, то внутри происходит кое-что странное. Каждое число активирует свою цепочку узлов, округляется, распадается на какие-то числа попроще. Модель приближает их к тому, что лучше знает. Потом все ветки сходятся в одну - и это ответ. Это немного похоже на то, как человек работает с такими числами в уме. Это похоже на логику. В статье несколько таких примеров. Когда нужно продолжить стих, модель активирует две группы веток - для смысла и для рифмы.
У всех компаний теперь есть "думающие" модели. Которые сначала геренят "мысли" - стену текста, из которой потом собирают финальный ответ. В этой стене текста модель сначала планирует ответ, разбирает задачу на подзадачи, идет по ним, корректирует нестыковки в сгенеренном тексте. И это помогает. Собственно, все лидирующие модели - думающие.
Ну, и последний уровень абстракции - цикл в коде, который запускает модель. Все приличные ассистенты для кода на каждый запрос пользователя выполняют целую кучу внутренних запросов к модели. Сначала просят ее собрать данные, потом сгенерить код, потом проверить, исправить ошибки, повторить, если нужно. Сами берут файлы из проекта, сам мержат в них изменения. Выходит дорого (много запросов, они все большие и тяжелые, думающие модели еще и мысли генерят для каждого промежуточного ответа), но намного эффективнее, чем если просто копипастить куски кода в чатбот.
Живой программист все еще лучше. Все эти новости про автоматизацию - хайп и скрытые сокращения на почве финансов. Но ваши рассуждения - это про то, что было год-полтора назад. В современных ИИ системах много логики на разных уровнях.
Это лучше, чем ничего, но сервера в США (в AWS и Azure) - это довольно опасно. Особенно сейчас, когда DOGE просто приходит, куда хочет. Слать правительство можно только до некоторой степени, пока оно не стучит в двери. Штукой для выбивания дверей. Мой VPN для торренов в Панаме, где у любителей бороться с терроризмом нет юрисдикции.
Если отбросить троллинг, то сейчас просто нет чатов, которым можно довериться. Никто не спрашивают у вас ключи, у вас их нет. Все приватные ключи у компаний под честное слово. Все root сертификаты тоже у них.
Единственное, что можно сделать, это вернуться в эпоху де-централизованных peer-to-peer решений.
Все может быть куда проще. Сначала тарифы для всего мира, а потом послабления в индивидуальном порядке. Удобный инструмент для торгов, который появился на ровном месте. Все слова и дейсвия Трампа нужно проверять временем - он сегодня одно говорит, а завтра другое.
Средний американец ждет перемен. В США разогналась инфляция, поднялись проценты по ипотеке, повысилась безработица. Все еще можно заработать много денег при желании, но люди без вышки и далеко идущих планов чувствуют, что беднеют. Им нет дела до всего, что происходит за пределами Штатов. Им надоели демократы, которые больше обеспокоены внешними проблемами и помощью всему миру, несмотря на растущий гос. долг. Средний американец не против, чтобы Трамп все сжег и построил заново.
Во времена Тьюринга было нормально думать, что если компьютер сможет хорошо разговаривать, то в нем точно будет интеллект. Сейчас все понимают, что это не так. Или не совсем так - даже есть интеллект и есть, то он какой-то другой, трудно сравнимый с человеческим. Тест Тьюринга потерял актуальность. Думаю, он уже давно пройден - все зависит от того, кого посадить тестировать. Специалист по ИИ раскусит любую модель, мою бабушку впечатлит и GPT-2.
На циферблат часов смотрит другая модель, которая не умеет разговаривать. Она выдает массив объектов и координат. К ней вряд ли применимо понятие интеллекта.
Бессмысленно сравнивать нейроны ИИ и живых существ. У них общего только название. Да и то, в литературе обычно вместо "нейронов" используют слово "юнит".
Что вы предлагаете? Не пользоваться, байкотировать, писать гадости на стенах? Может быть, серверные поджигать? Если уж на кого-то и злиться, то на тех, кто инвестирует в ИИ миллиарды, ожидая скорой финансовой выгоды. Это наши с вами работадатели. ИИ пока что убыточен, так что как бы там наивные программисты не хайповали - это не влияет ровным счетом ни на что.
Комментарии
Все это, возможно, потому, что внедрить ИИ можно хорошо, а можно плохо. В моей компании, например, активно внедряют гугловые ИИ, включая их инструменты для кодинга - Gemini Code assist и gemini-cli. Было большое внутреннее исследование, где сравнивались разные решения и gemini code assist все победил. Проблема в том, что это плохой инструмент. Стоит дать ему задачу, где нужно править несколько файлов в проекте, как он непременно свалится с ошибкой. Слак канал саппорта с представителями Гугла полон жалоб. Хорошие инструменты (вроде Claude Code или хотя бы Cursor) в исследование почему-то не попали. Да и вцелом, если почитать отчет, там какие-то совсем не те метрики выбора инструментов. Получается, наши топы купились на громкое имя Гугла и презентации, а своих вайбкодеров спросить забыли. Похожие истории у всех моих знакомых. У кого-то Cody внедрили, у кого-то Devin AI - хорошие сэйлсы продают AI мусор, а менеджеры рисуют фейковые метрики.
Ну, и все эти проценты роста продуктивности часто вызывают сомнение. Никто никогда не говорит, как именно замеряет эту самую продуктивность. Количество уязвимостей - тоже мутная метрика. Взял старую версию библиотеки - и вот у тебя сотни уязвимостей. Обновил - и ты чемпион по их закрытию. Прибыль - показатель получше, но опять же - это точно ИИ виноват?
Вибрационного кодинга? Заявка на перевод года
Меня как-то из-за пирсинга на работу в банк не взяли. Еще, помню, на военной кафедре сказали прийти в костюмах, а потом в этих самых костюмах повезли на стройку национальной библиотеки.
Все эти пляски вокруг внешнего вида офисного планктона указывают на бесхребетность HR и некоторую неадекватность начальства. Что-то вроде составления гороскопов на команду или окуривания офиса шалфеем.
levels.fyi говорит, что разница почти в полтора раза
https://www.levels.fyi/companies/hellofresh/salaries/software-engineer?country=91
Слышу "ИИ" - крещусь и звоню в милицию
Anthropic никогда не добавляли никакие уровни приоритетной обработки. У них подписка: чем больше платишь, тем больше запросов получаешь. Закончились запросы - сидишь и ждешь следующего 5-часового окна. Если речь про API, то там чем больше денег на счету, тем выше лимиты.
Это как раз Cursor придумали быстрые и медленные токены. Первые Х токенов по подписке быстрые, а после скорость сильно падает, пока новые месяц не наступит.
Впрочем, на счет вероятностей я не прав - там в конце есть фаза выборки токена из вектора. До нее процесс полностью детерминированный, в обучении вероятности тоже не участвуют. LLM не вероятностная модель. Это модель, в которой хранятся свойства, понятия, связи между ними, закодированные в числа. Каждый нейрон представляет собой такое свойство (вернее много свойств сразу). Работа с сетью - не поиск, а прогон входной матрицы через все ее свойства слой за слоем. Какие-то уходят в ноль, какие-то дают растущие значения - в конце все сходится в один вектор. Из него не обязательно выбирать один токен - весь вектор содержит полезную информацию. Но нам для интерпретации нужно что-то выбрать - только тут в игру вступают вероятности.
Просто у меня есть практика, а у вас нет. И азов у вас нет, потому что нигде в нейронке нету вероятностей. Вообще нигде, ни одной формулы. Аналогия с поисковиком хорошая для детей девятого класса, но никого поиска там тоже нет. Вы и сами не разбираетесь, и другим мешаете. Впрочем, я вижу, что другие не против.
Что вы хотите, чтобы я показал? Проект, продукт? Как вы поймете, что они написаны ИИ? ИИ код никак не отличается от человеческого (разве что коментов больше) - нужно видеть процесс. Если в какой-то гитхаб репе будет написано, что 100% сгенерено ИИ, вы поверите? Идите на ютуб и ищите "roocode project showcase". Что-нибудь вроде этого https://www.youtube.com/watch?v=sOpryi5N5WA&ab_channel=MichaelFricker или этого https://www.youtube.com/watch?v=vooolVLItTQ&ab_channel=GosuCoder
Засунуть голову в песок и говорить, что оттуда плохо видно.
Возможно, если бы вы могли бросить в меня парочкой терминов, этот разговор имел бы больше смысла. Я перечислил названия моделей, клаудов, где они хостятся, и самые популярные агенты для кода. Если для вас это тарабарщина, ну о чем тогда речь? Вы ничем этим не пользовались, но уверенно спорите о состоянии технологии.
Я вам на это уже отвечал, но вы не хотите со мной разговаривать и зачем-то репостите одно и то же из темы в тему. Держите плюс, и разойдемся на этом
Эта статья - выжимка двух научных публикаций. Которые продолжают серию других публикаций. Там нет никакой магии, они подробно описали все, что сделали - любой может повторить. Но ок, маркетинг, так маркетинг.
Да показали, вы просто не интересуетесь и не видите. Их модели доступны через API и в AWS Bedrock. Дальше уже дело техники, бюджета и желания - настроить агентов и работать с ними. Их уже довольно много, есть свой и у Антропик - Claude Code называется. Но мне он не нравится, я использую опенсорсные Roo Code и Aider в паре с Claude Sonnet 3.5/3.7 на AWS. Есть у нас и OpenAI модели в Azure, и Gemini на Vertex, и DeepSeek на собственных серверах. Но Клод самый лучший для моих инструментов. Я даю своим агентам проект и задачу - они автономно работают (ну, вернее, я сам настраиваю степень автономности). Я проверяю и параллельно работаю над чем-то другим. Их код - мой код, он идет в прод. Это не считается?
Парировать такое просто нечем, сдаюсь
Какие-то алгоритмы есть. Один из самых известных - алгоритм Шора для разложения числа на простые множители. Но проблема в том, что его сложно понять без подготовки. В квантовых компьютерах нету традиционных и понятных операций с числами вроде AND или OR - там другие команды, работающие с массивами чего-то вроде взаимосвязанных вероятностей. И есть более высокоуровневые языки под конкретные эмуляторы.
Я согласен, что далеко с этим не уехать. Вакансий и правда нет. Студенты физмата еще имеют шанс попасть в лаборатории Гугла или IBM, а нам светит в лучшем случае общение с другими энтузиастами в Дискорде. Но если технология взлетит, можно оказаться в первых рядах тех, кто что-то понимает. И вполне себе откликаться на вакансии со своими поделками на Гитхабе. Примерно, как сейчас с ИИ. Но если не взлетит, все равно ок в качестве хобби. Квантовые компьютеры близки к магии.
Разве? Статья про факт прохождения теста Тьюринга, а не про то, что это означает. Единственный вывод:
Ни слова про интеллект и разумность.
Ну, вот, например, последнее исследование от Антропик, которое показывает, что, даже просто угадывая следующее слово, модель внутри делает что-то похожее на рассуждения: https://www.anthropic.com/news/tracing-thoughts-language-model У них там есть специальная модель, в которой лучше видно, какие узлы внутри нейронки активируются, когда она генерирует слово. И вот ее, например, просят сложить два числа. В каких-то случаях она выдает ответ сразу - потому что просто запомнила его во время обучения. Но если числа более сложные, например 36 и 59, то внутри происходит кое-что странное. Каждое число активирует свою цепочку узлов, округляется, распадается на какие-то числа попроще. Модель приближает их к тому, что лучше знает. Потом все ветки сходятся в одну - и это ответ. Это немного похоже на то, как человек работает с такими числами в уме. Это похоже на логику. В статье несколько таких примеров. Когда нужно продолжить стих, модель активирует две группы веток - для смысла и для рифмы.
У всех компаний теперь есть "думающие" модели. Которые сначала геренят "мысли" - стену текста, из которой потом собирают финальный ответ. В этой стене текста модель сначала планирует ответ, разбирает задачу на подзадачи, идет по ним, корректирует нестыковки в сгенеренном тексте. И это помогает. Собственно, все лидирующие модели - думающие.
Ну, и последний уровень абстракции - цикл в коде, который запускает модель. Все приличные ассистенты для кода на каждый запрос пользователя выполняют целую кучу внутренних запросов к модели. Сначала просят ее собрать данные, потом сгенерить код, потом проверить, исправить ошибки, повторить, если нужно. Сами берут файлы из проекта, сам мержат в них изменения. Выходит дорого (много запросов, они все большие и тяжелые, думающие модели еще и мысли генерят для каждого промежуточного ответа), но намного эффективнее, чем если просто копипастить куски кода в чатбот.
Живой программист все еще лучше. Все эти новости про автоматизацию - хайп и скрытые сокращения на почве финансов. Но ваши рассуждения - это про то, что было год-полтора назад. В современных ИИ системах много логики на разных уровнях.
Это лучше, чем ничего, но сервера в США (в AWS и Azure) - это довольно опасно. Особенно сейчас, когда DOGE просто приходит, куда хочет. Слать правительство можно только до некоторой степени, пока оно не стучит в двери. Штукой для выбивания дверей. Мой VPN для торренов в Панаме, где у любителей бороться с терроризмом нет юрисдикции.
Если отбросить троллинг, то сейчас просто нет чатов, которым можно довериться. Никто не спрашивают у вас ключи, у вас их нет. Все приватные ключи у компаний под честное слово. Все root сертификаты тоже у них.
Единственное, что можно сделать, это вернуться в эпоху де-централизованных peer-to-peer решений.
Все может быть куда проще. Сначала тарифы для всего мира, а потом послабления в индивидуальном порядке. Удобный инструмент для торгов, который появился на ровном месте. Все слова и дейсвия Трампа нужно проверять временем - он сегодня одно говорит, а завтра другое.
Средний американец ждет перемен. В США разогналась инфляция, поднялись проценты по ипотеке, повысилась безработица. Все еще можно заработать много денег при желании, но люди без вышки и далеко идущих планов чувствуют, что беднеют. Им нет дела до всего, что происходит за пределами Штатов. Им надоели демократы, которые больше обеспокоены внешними проблемами и помощью всему миру, несмотря на растущий гос. долг. Средний американец не против, чтобы Трамп все сжег и построил заново.
Во времена Тьюринга было нормально думать, что если компьютер сможет хорошо разговаривать, то в нем точно будет интеллект. Сейчас все понимают, что это не так. Или не совсем так - даже есть интеллект и есть, то он какой-то другой, трудно сравнимый с человеческим. Тест Тьюринга потерял актуальность. Думаю, он уже давно пройден - все зависит от того, кого посадить тестировать. Специалист по ИИ раскусит любую модель, мою бабушку впечатлит и GPT-2.
На циферблат часов смотрит другая модель, которая не умеет разговаривать. Она выдает массив объектов и координат. К ней вряд ли применимо понятие интеллекта.
Бессмысленно сравнивать нейроны ИИ и живых существ. У них общего только название. Да и то, в литературе обычно вместо "нейронов" используют слово "юнит".
ИИ пишет то, что вы ему говорите. Инновации на вас, на нем только набор текста
Что вы предлагаете? Не пользоваться, байкотировать, писать гадости на стенах? Может быть, серверные поджигать? Если уж на кого-то и злиться, то на тех, кто инвестирует в ИИ миллиарды, ожидая скорой финансовой выгоды. Это наши с вами работадатели. ИИ пока что убыточен, так что как бы там наивные программисты не хайповали - это не влияет ровным счетом ни на что.