Есть популярная теория, будто офисы крупных компаний сильно влияют на экономику городов. Подстраивают под себя инфраструктуру, поднимают цены на недвижимость, привлекают мелкие бизнесы. Компании получают налоговые льготы, менеджеры - дополнительные бюджеты. Много кому не выгодно, когда люди перестают в эти самые офисы ездить. Разговоры про продуктивность, мотивацию, рабочую атмосферу - все это ерунда. За те зарплаты, которые там платят, можно без проблем найти адекватных работников и манагеров на ремоут. В компания вроде Майкрософта перформанс оценивается дважды в год, за два отзыва уровня meet expectations почти гарантированное увольнение (PIP в простонародье).
Еще есть интересный феномен культа своих CEO. Все, что они говорят, воспринимается как абсолютная истина, с которой не принято не соглашаться. Сказали ездить в офисы, потому что так лучше, - половина сотрудников постит в Линкедине, что так даже лучше и вообще очень здорово. Майкрософт придумал новую байку про какие-то "социальные связи" - видимо, стандартная тема про продуктивность слишком уж не убедительна.
Ну, и что это объясняет? Почему классификаторы не могут быть интеллектом? Что вообще значит "классификатор" в контексте штуки, с которой можно разговаривать на любые темы? Если уж на то пошло, то классификация - разделение на группы, а трансформер продолжает цепочку токентов новыми токенами.
Все это, возможно, потому, что внедрить ИИ можно хорошо, а можно плохо. В моей компании, например, активно внедряют гугловые ИИ, включая их инструменты для кодинга - Gemini Code assist и gemini-cli. Было большое внутреннее исследование, где сравнивались разные решения и gemini code assist все победил. Проблема в том, что это плохой инструмент. Стоит дать ему задачу, где нужно править несколько файлов в проекте, как он непременно свалится с ошибкой. Слак канал саппорта с представителями Гугла полон жалоб. Хорошие инструменты (вроде Claude Code или хотя бы Cursor) в исследование почему-то не попали. Да и вцелом, если почитать отчет, там какие-то совсем не те метрики выбора инструментов. Получается, наши топы купились на громкое имя Гугла и презентации, а своих вайбкодеров спросить забыли. Похожие истории у всех моих знакомых. У кого-то Cody внедрили, у кого-то Devin AI - хорошие сэйлсы продают AI мусор, а менеджеры рисуют фейковые метрики.
Ну, и все эти проценты роста продуктивности часто вызывают сомнение. Никто никогда не говорит, как именно замеряет эту самую продуктивность. Количество уязвимостей - тоже мутная метрика. Взял старую версию библиотеки - и вот у тебя сотни уязвимостей. Обновил - и ты чемпион по их закрытию. Прибыль - показатель получше, но опять же - это точно ИИ виноват?
Меня как-то из-за пирсинга на работу в банк не взяли. Еще, помню, на военной кафедре сказали прийти в костюмах, а потом в этих самых костюмах повезли на стройку национальной библиотеки.
Все эти пляски вокруг внешнего вида офисного планктона указывают на бесхребетность HR и некоторую неадекватность начальства. Что-то вроде составления гороскопов на команду или окуривания офиса шалфеем.
Anthropic никогда не добавляли никакие уровни приоритетной обработки. У них подписка: чем больше платишь, тем больше запросов получаешь. Закончились запросы - сидишь и ждешь следующего 5-часового окна. Если речь про API, то там чем больше денег на счету, тем выше лимиты.
Это как раз Cursor придумали быстрые и медленные токены. Первые Х токенов по подписке быстрые, а после скорость сильно падает, пока новые месяц не наступит.
Впрочем, на счет вероятностей я не прав - там в конце есть фаза выборки токена из вектора. До нее процесс полностью детерминированный, в обучении вероятности тоже не участвуют. LLM не вероятностная модель. Это модель, в которой хранятся свойства, понятия, связи между ними, закодированные в числа. Каждый нейрон представляет собой такое свойство (вернее много свойств сразу). Работа с сетью - не поиск, а прогон входной матрицы через все ее свойства слой за слоем. Какие-то уходят в ноль, какие-то дают растущие значения - в конце все сходится в один вектор. Из него не обязательно выбирать один токен - весь вектор содержит полезную информацию. Но нам для интерпретации нужно что-то выбрать - только тут в игру вступают вероятности.
Просто у меня есть практика, а у вас нет. И азов у вас нет, потому что нигде в нейронке нету вероятностей. Вообще нигде, ни одной формулы. Аналогия с поисковиком хорошая для детей девятого класса, но никого поиска там тоже нет. Вы и сами не разбираетесь, и другим мешаете. Впрочем, я вижу, что другие не против.
Засунуть голову в песок и говорить, что оттуда плохо видно.
Возможно, если бы вы могли бросить в меня парочкой терминов, этот разговор имел бы больше смысла. Я перечислил названия моделей, клаудов, где они хостятся, и самые популярные агенты для кода. Если для вас это тарабарщина, ну о чем тогда речь? Вы ничем этим не пользовались, но уверенно спорите о состоянии технологии.
Эта статья - выжимка двух научных публикаций. Которые продолжают серию других публикаций. Там нет никакой магии, они подробно описали все, что сделали - любой может повторить. Но ок, маркетинг, так маркетинг.
Почему они же они не показали пример как их система пишет код который можно применять в продакшене?)
Да показали, вы просто не интересуетесь и не видите. Их модели доступны через API и в AWS Bedrock. Дальше уже дело техники, бюджета и желания - настроить агентов и работать с ними. Их уже довольно много, есть свой и у Антропик - Claude Code называется. Но мне он не нравится, я использую опенсорсные Roo Code и Aider в паре с Claude Sonnet 3.5/3.7 на AWS. Есть у нас и OpenAI модели в Azure, и Gemini на Vertex, и DeepSeek на собственных серверах. Но Клод самый лучший для моих инструментов. Я даю своим агентам проект и задачу - они автономно работают (ну, вернее, я сам настраиваю степень автономности). Я проверяю и параллельно работаю над чем-то другим. Их код - мой код, он идет в прод. Это не считается?
Если бы вы разобрались в самых элеметарных азах, LLM то не утверждали бы все то что выше написали
Какие-то алгоритмы есть. Один из самых известных - алгоритм Шора для разложения числа на простые множители. Но проблема в том, что его сложно понять без подготовки. В квантовых компьютерах нету традиционных и понятных операций с числами вроде AND или OR - там другие команды, работающие с массивами чего-то вроде взаимосвязанных вероятностей. И есть более высокоуровневые языки под конкретные эмуляторы.
Я согласен, что далеко с этим не уехать. Вакансий и правда нет. Студенты физмата еще имеют шанс попасть в лаборатории Гугла или IBM, а нам светит в лучшем случае общение с другими энтузиастами в Дискорде. Но если технология взлетит, можно оказаться в первых рядах тех, кто что-то понимает. И вполне себе откликаться на вакансии со своими поделками на Гитхабе. Примерно, как сейчас с ИИ. Но если не взлетит, все равно ок в качестве хобби. Квантовые компьютеры близки к магии.
Технологии типа LLM, это вероятностная модель, а не модель основанная на строгих логических рассуждениях
Ну, вот, например, последнее исследование от Антропик, которое показывает, что, даже просто угадывая следующее слово, модель внутри делает что-то похожее на рассуждения: https://www.anthropic.com/news/tracing-thoughts-language-model У них там есть специальная модель, в которой лучше видно, какие узлы внутри нейронки активируются, когда она генерирует слово. И вот ее, например, просят сложить два числа. В каких-то случаях она выдает ответ сразу - потому что просто запомнила его во время обучения. Но если числа более сложные, например 36 и 59, то внутри происходит кое-что странное. Каждое число активирует свою цепочку узлов, округляется, распадается на какие-то числа попроще. Модель приближает их к тому, что лучше знает. Потом все ветки сходятся в одну - и это ответ. Это немного похоже на то, как человек работает с такими числами в уме. Это похоже на логику. В статье несколько таких примеров. Когда нужно продолжить стих, модель активирует две группы веток - для смысла и для рифмы.
У всех компаний теперь есть "думающие" модели. Которые сначала геренят "мысли" - стену текста, из которой потом собирают финальный ответ. В этой стене текста модель сначала планирует ответ, разбирает задачу на подзадачи, идет по ним, корректирует нестыковки в сгенеренном тексте. И это помогает. Собственно, все лидирующие модели - думающие.
Ну, и последний уровень абстракции - цикл в коде, который запускает модель. Все приличные ассистенты для кода на каждый запрос пользователя выполняют целую кучу внутренних запросов к модели. Сначала просят ее собрать данные, потом сгенерить код, потом проверить, исправить ошибки, повторить, если нужно. Сами берут файлы из проекта, сам мержат в них изменения. Выходит дорого (много запросов, они все большие и тяжелые, думающие модели еще и мысли генерят для каждого промежуточного ответа), но намного эффективнее, чем если просто копипастить куски кода в чатбот.
Живой программист все еще лучше. Все эти новости про автоматизацию - хайп и скрытые сокращения на почве финансов. Но ваши рассуждения - это про то, что было год-полтора назад. В современных ИИ системах много логики на разных уровнях.
Это лучше, чем ничего, но сервера в США (в AWS и Azure) - это довольно опасно. Особенно сейчас, когда DOGE просто приходит, куда хочет. Слать правительство можно только до некоторой степени, пока оно не стучит в двери. Штукой для выбивания дверей. Мой VPN для торренов в Панаме, где у любителей бороться с терроризмом нет юрисдикции.
Если отбросить троллинг, то сейчас просто нет чатов, которым можно довериться. Никто не спрашивают у вас ключи, у вас их нет. Все приватные ключи у компаний под честное слово. Все root сертификаты тоже у них.
Единственное, что можно сделать, это вернуться в эпоху де-централизованных peer-to-peer решений.
Все может быть куда проще. Сначала тарифы для всего мира, а потом послабления в индивидуальном порядке. Удобный инструмент для торгов, который появился на ровном месте. Все слова и дейсвия Трампа нужно проверять временем - он сегодня одно говорит, а завтра другое.
Средний американец ждет перемен. В США разогналась инфляция, поднялись проценты по ипотеке, повысилась безработица. Все еще можно заработать много денег при желании, но люди без вышки и далеко идущих планов чувствуют, что беднеют. Им нет дела до всего, что происходит за пределами Штатов. Им надоели демократы, которые больше обеспокоены внешними проблемами и помощью всему миру, несмотря на растущий гос. долг. Средний американец не против, чтобы Трамп все сжег и построил заново.
Во времена Тьюринга было нормально думать, что если компьютер сможет хорошо разговаривать, то в нем точно будет интеллект. Сейчас все понимают, что это не так. Или не совсем так - даже есть интеллект и есть, то он какой-то другой, трудно сравнимый с человеческим. Тест Тьюринга потерял актуальность. Думаю, он уже давно пройден - все зависит от того, кого посадить тестировать. Специалист по ИИ раскусит любую модель, мою бабушку впечатлит и GPT-2.
На циферблат часов смотрит другая модель, которая не умеет разговаривать. Она выдает массив объектов и координат. К ней вряд ли применимо понятие интеллекта.
Бессмысленно сравнивать нейроны ИИ и живых существ. У них общего только название. Да и то, в литературе обычно вместо "нейронов" используют слово "юнит".
Комментарии
Есть популярная теория, будто офисы крупных компаний сильно влияют на экономику городов. Подстраивают под себя инфраструктуру, поднимают цены на недвижимость, привлекают мелкие бизнесы. Компании получают налоговые льготы, менеджеры - дополнительные бюджеты. Много кому не выгодно, когда люди перестают в эти самые офисы ездить. Разговоры про продуктивность, мотивацию, рабочую атмосферу - все это ерунда. За те зарплаты, которые там платят, можно без проблем найти адекватных работников и манагеров на ремоут. В компания вроде Майкрософта перформанс оценивается дважды в год, за два отзыва уровня meet expectations почти гарантированное увольнение (PIP в простонародье).
Еще есть интересный феномен культа своих CEO. Все, что они говорят, воспринимается как абсолютная истина, с которой не принято не соглашаться. Сказали ездить в офисы, потому что так лучше, - половина сотрудников постит в Линкедине, что так даже лучше и вообще очень здорово. Майкрософт придумал новую байку про какие-то "социальные связи" - видимо, стандартная тема про продуктивность слишком уж не убедительна.
Ну, и что это объясняет? Почему классификаторы не могут быть интеллектом? Что вообще значит "классификатор" в контексте штуки, с которой можно разговаривать на любые темы? Если уж на то пошло, то классификация - разделение на группы, а трансформер продолжает цепочку токентов новыми токенами.
Все это, возможно, потому, что внедрить ИИ можно хорошо, а можно плохо. В моей компании, например, активно внедряют гугловые ИИ, включая их инструменты для кодинга - Gemini Code assist и gemini-cli. Было большое внутреннее исследование, где сравнивались разные решения и gemini code assist все победил. Проблема в том, что это плохой инструмент. Стоит дать ему задачу, где нужно править несколько файлов в проекте, как он непременно свалится с ошибкой. Слак канал саппорта с представителями Гугла полон жалоб. Хорошие инструменты (вроде Claude Code или хотя бы Cursor) в исследование почему-то не попали. Да и вцелом, если почитать отчет, там какие-то совсем не те метрики выбора инструментов. Получается, наши топы купились на громкое имя Гугла и презентации, а своих вайбкодеров спросить забыли. Похожие истории у всех моих знакомых. У кого-то Cody внедрили, у кого-то Devin AI - хорошие сэйлсы продают AI мусор, а менеджеры рисуют фейковые метрики.
Ну, и все эти проценты роста продуктивности часто вызывают сомнение. Никто никогда не говорит, как именно замеряет эту самую продуктивность. Количество уязвимостей - тоже мутная метрика. Взял старую версию библиотеки - и вот у тебя сотни уязвимостей. Обновил - и ты чемпион по их закрытию. Прибыль - показатель получше, но опять же - это точно ИИ виноват?
Вибрационного кодинга? Заявка на перевод года
Меня как-то из-за пирсинга на работу в банк не взяли. Еще, помню, на военной кафедре сказали прийти в костюмах, а потом в этих самых костюмах повезли на стройку национальной библиотеки.
Все эти пляски вокруг внешнего вида офисного планктона указывают на бесхребетность HR и некоторую неадекватность начальства. Что-то вроде составления гороскопов на команду или окуривания офиса шалфеем.
levels.fyi говорит, что разница почти в полтора раза
https://www.levels.fyi/companies/hellofresh/salaries/software-engineer?country=91
Слышу "ИИ" - крещусь и звоню в милицию
Anthropic никогда не добавляли никакие уровни приоритетной обработки. У них подписка: чем больше платишь, тем больше запросов получаешь. Закончились запросы - сидишь и ждешь следующего 5-часового окна. Если речь про API, то там чем больше денег на счету, тем выше лимиты.
Это как раз Cursor придумали быстрые и медленные токены. Первые Х токенов по подписке быстрые, а после скорость сильно падает, пока новые месяц не наступит.
Впрочем, на счет вероятностей я не прав - там в конце есть фаза выборки токена из вектора. До нее процесс полностью детерминированный, в обучении вероятности тоже не участвуют. LLM не вероятностная модель. Это модель, в которой хранятся свойства, понятия, связи между ними, закодированные в числа. Каждый нейрон представляет собой такое свойство (вернее много свойств сразу). Работа с сетью - не поиск, а прогон входной матрицы через все ее свойства слой за слоем. Какие-то уходят в ноль, какие-то дают растущие значения - в конце все сходится в один вектор. Из него не обязательно выбирать один токен - весь вектор содержит полезную информацию. Но нам для интерпретации нужно что-то выбрать - только тут в игру вступают вероятности.
Просто у меня есть практика, а у вас нет. И азов у вас нет, потому что нигде в нейронке нету вероятностей. Вообще нигде, ни одной формулы. Аналогия с поисковиком хорошая для детей девятого класса, но никого поиска там тоже нет. Вы и сами не разбираетесь, и другим мешаете. Впрочем, я вижу, что другие не против.
Что вы хотите, чтобы я показал? Проект, продукт? Как вы поймете, что они написаны ИИ? ИИ код никак не отличается от человеческого (разве что коментов больше) - нужно видеть процесс. Если в какой-то гитхаб репе будет написано, что 100% сгенерено ИИ, вы поверите? Идите на ютуб и ищите "roocode project showcase". Что-нибудь вроде этого https://www.youtube.com/watch?v=sOpryi5N5WA&ab_channel=MichaelFricker или этого https://www.youtube.com/watch?v=vooolVLItTQ&ab_channel=GosuCoder
Засунуть голову в песок и говорить, что оттуда плохо видно.
Возможно, если бы вы могли бросить в меня парочкой терминов, этот разговор имел бы больше смысла. Я перечислил названия моделей, клаудов, где они хостятся, и самые популярные агенты для кода. Если для вас это тарабарщина, ну о чем тогда речь? Вы ничем этим не пользовались, но уверенно спорите о состоянии технологии.
Я вам на это уже отвечал, но вы не хотите со мной разговаривать и зачем-то репостите одно и то же из темы в тему. Держите плюс, и разойдемся на этом
Эта статья - выжимка двух научных публикаций. Которые продолжают серию других публикаций. Там нет никакой магии, они подробно описали все, что сделали - любой может повторить. Но ок, маркетинг, так маркетинг.
Да показали, вы просто не интересуетесь и не видите. Их модели доступны через API и в AWS Bedrock. Дальше уже дело техники, бюджета и желания - настроить агентов и работать с ними. Их уже довольно много, есть свой и у Антропик - Claude Code называется. Но мне он не нравится, я использую опенсорсные Roo Code и Aider в паре с Claude Sonnet 3.5/3.7 на AWS. Есть у нас и OpenAI модели в Azure, и Gemini на Vertex, и DeepSeek на собственных серверах. Но Клод самый лучший для моих инструментов. Я даю своим агентам проект и задачу - они автономно работают (ну, вернее, я сам настраиваю степень автономности). Я проверяю и параллельно работаю над чем-то другим. Их код - мой код, он идет в прод. Это не считается?
Парировать такое просто нечем, сдаюсь
Какие-то алгоритмы есть. Один из самых известных - алгоритм Шора для разложения числа на простые множители. Но проблема в том, что его сложно понять без подготовки. В квантовых компьютерах нету традиционных и понятных операций с числами вроде AND или OR - там другие команды, работающие с массивами чего-то вроде взаимосвязанных вероятностей. И есть более высокоуровневые языки под конкретные эмуляторы.
Я согласен, что далеко с этим не уехать. Вакансий и правда нет. Студенты физмата еще имеют шанс попасть в лаборатории Гугла или IBM, а нам светит в лучшем случае общение с другими энтузиастами в Дискорде. Но если технология взлетит, можно оказаться в первых рядах тех, кто что-то понимает. И вполне себе откликаться на вакансии со своими поделками на Гитхабе. Примерно, как сейчас с ИИ. Но если не взлетит, все равно ок в качестве хобби. Квантовые компьютеры близки к магии.
Разве? Статья про факт прохождения теста Тьюринга, а не про то, что это означает. Единственный вывод:
Ни слова про интеллект и разумность.
Ну, вот, например, последнее исследование от Антропик, которое показывает, что, даже просто угадывая следующее слово, модель внутри делает что-то похожее на рассуждения: https://www.anthropic.com/news/tracing-thoughts-language-model У них там есть специальная модель, в которой лучше видно, какие узлы внутри нейронки активируются, когда она генерирует слово. И вот ее, например, просят сложить два числа. В каких-то случаях она выдает ответ сразу - потому что просто запомнила его во время обучения. Но если числа более сложные, например 36 и 59, то внутри происходит кое-что странное. Каждое число активирует свою цепочку узлов, округляется, распадается на какие-то числа попроще. Модель приближает их к тому, что лучше знает. Потом все ветки сходятся в одну - и это ответ. Это немного похоже на то, как человек работает с такими числами в уме. Это похоже на логику. В статье несколько таких примеров. Когда нужно продолжить стих, модель активирует две группы веток - для смысла и для рифмы.
У всех компаний теперь есть "думающие" модели. Которые сначала геренят "мысли" - стену текста, из которой потом собирают финальный ответ. В этой стене текста модель сначала планирует ответ, разбирает задачу на подзадачи, идет по ним, корректирует нестыковки в сгенеренном тексте. И это помогает. Собственно, все лидирующие модели - думающие.
Ну, и последний уровень абстракции - цикл в коде, который запускает модель. Все приличные ассистенты для кода на каждый запрос пользователя выполняют целую кучу внутренних запросов к модели. Сначала просят ее собрать данные, потом сгенерить код, потом проверить, исправить ошибки, повторить, если нужно. Сами берут файлы из проекта, сам мержат в них изменения. Выходит дорого (много запросов, они все большие и тяжелые, думающие модели еще и мысли генерят для каждого промежуточного ответа), но намного эффективнее, чем если просто копипастить куски кода в чатбот.
Живой программист все еще лучше. Все эти новости про автоматизацию - хайп и скрытые сокращения на почве финансов. Но ваши рассуждения - это про то, что было год-полтора назад. В современных ИИ системах много логики на разных уровнях.
Это лучше, чем ничего, но сервера в США (в AWS и Azure) - это довольно опасно. Особенно сейчас, когда DOGE просто приходит, куда хочет. Слать правительство можно только до некоторой степени, пока оно не стучит в двери. Штукой для выбивания дверей. Мой VPN для торренов в Панаме, где у любителей бороться с терроризмом нет юрисдикции.
Если отбросить троллинг, то сейчас просто нет чатов, которым можно довериться. Никто не спрашивают у вас ключи, у вас их нет. Все приватные ключи у компаний под честное слово. Все root сертификаты тоже у них.
Единственное, что можно сделать, это вернуться в эпоху де-централизованных peer-to-peer решений.
Все может быть куда проще. Сначала тарифы для всего мира, а потом послабления в индивидуальном порядке. Удобный инструмент для торгов, который появился на ровном месте. Все слова и дейсвия Трампа нужно проверять временем - он сегодня одно говорит, а завтра другое.
Средний американец ждет перемен. В США разогналась инфляция, поднялись проценты по ипотеке, повысилась безработица. Все еще можно заработать много денег при желании, но люди без вышки и далеко идущих планов чувствуют, что беднеют. Им нет дела до всего, что происходит за пределами Штатов. Им надоели демократы, которые больше обеспокоены внешними проблемами и помощью всему миру, несмотря на растущий гос. долг. Средний американец не против, чтобы Трамп все сжег и построил заново.
Во времена Тьюринга было нормально думать, что если компьютер сможет хорошо разговаривать, то в нем точно будет интеллект. Сейчас все понимают, что это не так. Или не совсем так - даже есть интеллект и есть, то он какой-то другой, трудно сравнимый с человеческим. Тест Тьюринга потерял актуальность. Думаю, он уже давно пройден - все зависит от того, кого посадить тестировать. Специалист по ИИ раскусит любую модель, мою бабушку впечатлит и GPT-2.
На циферблат часов смотрит другая модель, которая не умеет разговаривать. Она выдает массив объектов и координат. К ней вряд ли применимо понятие интеллекта.
Бессмысленно сравнивать нейроны ИИ и живых существ. У них общего только название. Да и то, в литературе обычно вместо "нейронов" используют слово "юнит".