Бесполезное считать, столько стоило одного удачное обучение. Нужно еще считать неудачные прогоны, затраты на исследования, сбор данных, зарплаты программистов и ученых, железо. Тогда, возможно, 100 миллионов и получится. Раньше DeepSeek говорили, то потратили 5 миллионов, но не уточняли, на что именно. R1 - это надстройка над уже существующей моделью V3, стоимость разработки которой на раскрывалась. Вдобавок, у компании уже был свой дата центр с кучей Nvidea чипов. В общем, все мутно. Очевидно только, что американские и китайские ИИ компании жестко конкурируют и пытаются насолить друг другу.
Как это связано со статьей? Трамп хочет, чтобы ИИ компании хранили чаты и сливали их правительству по требованию. OpenAI уже заставили это делать - они обязаны хранить вечно даже удаленные пользователями чаты.
Зачем переживать за инвесторов ИИ компаний? Эти умники про потребителей говорят. Если в каком-нибудь банке ИИ автоматизирует мелкую рутину за $50/месяц, для банка это очевидная польза. Если ИИ-ассистент за $100-200/месяц на человека хотя бы немного помогает разработчику - это тоже польза. А как ИИ-компании деньги делают - это уже их дело. Вроде как, нет у них проблем ни с инвестициями, ни с клиентами.
Ты уже больше года в каждой новости про ИИ отмечаешься с критикой. Удалось ли за это время какой-нибудь Cursor попробовать? Неужели вообще никакой пользы от ИИ не видно?
Есть популярная теория, будто офисы крупных компаний сильно влияют на экономику городов. Подстраивают под себя инфраструктуру, поднимают цены на недвижимость, привлекают мелкие бизнесы. Компании получают налоговые льготы, менеджеры - дополнительные бюджеты. Много кому не выгодно, когда люди перестают в эти самые офисы ездить. Разговоры про продуктивность, мотивацию, рабочую атмосферу - все это ерунда. За те зарплаты, которые там платят, можно без проблем найти адекватных работников и манагеров на ремоут. В компания вроде Майкрософта перформанс оценивается дважды в год, за два отзыва уровня meet expectations почти гарантированное увольнение (PIP в простонародье).
Еще есть интересный феномен культа своих CEO. Все, что они говорят, воспринимается как абсолютная истина, с которой не принято не соглашаться. Сказали ездить в офисы, потому что так лучше, - половина сотрудников постит в Линкедине, что так даже лучше и вообще очень здорово. Майкрософт придумал новую байку про какие-то "социальные связи" - видимо, стандартная тема про продуктивность слишком уж не убедительна.
Ну, и что это объясняет? Почему классификаторы не могут быть интеллектом? Что вообще значит "классификатор" в контексте штуки, с которой можно разговаривать на любые темы? Если уж на то пошло, то классификация - разделение на группы, а трансформер продолжает цепочку токентов новыми токенами.
Все это, возможно, потому, что внедрить ИИ можно хорошо, а можно плохо. В моей компании, например, активно внедряют гугловые ИИ, включая их инструменты для кодинга - Gemini Code assist и gemini-cli. Было большое внутреннее исследование, где сравнивались разные решения и gemini code assist все победил. Проблема в том, что это плохой инструмент. Стоит дать ему задачу, где нужно править несколько файлов в проекте, как он непременно свалится с ошибкой. Слак канал саппорта с представителями Гугла полон жалоб. Хорошие инструменты (вроде Claude Code или хотя бы Cursor) в исследование почему-то не попали. Да и вцелом, если почитать отчет, там какие-то совсем не те метрики выбора инструментов. Получается, наши топы купились на громкое имя Гугла и презентации, а своих вайбкодеров спросить забыли. Похожие истории у всех моих знакомых. У кого-то Cody внедрили, у кого-то Devin AI - хорошие сэйлсы продают AI мусор, а менеджеры рисуют фейковые метрики.
Ну, и все эти проценты роста продуктивности часто вызывают сомнение. Никто никогда не говорит, как именно замеряет эту самую продуктивность. Количество уязвимостей - тоже мутная метрика. Взял старую версию библиотеки - и вот у тебя сотни уязвимостей. Обновил - и ты чемпион по их закрытию. Прибыль - показатель получше, но опять же - это точно ИИ виноват?
Меня как-то из-за пирсинга на работу в банк не взяли. Еще, помню, на военной кафедре сказали прийти в костюмах, а потом в этих самых костюмах повезли на стройку национальной библиотеки.
Все эти пляски вокруг внешнего вида офисного планктона указывают на бесхребетность HR и некоторую неадекватность начальства. Что-то вроде составления гороскопов на команду или окуривания офиса шалфеем.
Anthropic никогда не добавляли никакие уровни приоритетной обработки. У них подписка: чем больше платишь, тем больше запросов получаешь. Закончились запросы - сидишь и ждешь следующего 5-часового окна. Если речь про API, то там чем больше денег на счету, тем выше лимиты.
Это как раз Cursor придумали быстрые и медленные токены. Первые Х токенов по подписке быстрые, а после скорость сильно падает, пока новые месяц не наступит.
Впрочем, на счет вероятностей я не прав - там в конце есть фаза выборки токена из вектора. До нее процесс полностью детерминированный, в обучении вероятности тоже не участвуют. LLM не вероятностная модель. Это модель, в которой хранятся свойства, понятия, связи между ними, закодированные в числа. Каждый нейрон представляет собой такое свойство (вернее много свойств сразу). Работа с сетью - не поиск, а прогон входной матрицы через все ее свойства слой за слоем. Какие-то уходят в ноль, какие-то дают растущие значения - в конце все сходится в один вектор. Из него не обязательно выбирать один токен - весь вектор содержит полезную информацию. Но нам для интерпретации нужно что-то выбрать - только тут в игру вступают вероятности.
Просто у меня есть практика, а у вас нет. И азов у вас нет, потому что нигде в нейронке нету вероятностей. Вообще нигде, ни одной формулы. Аналогия с поисковиком хорошая для детей девятого класса, но никого поиска там тоже нет. Вы и сами не разбираетесь, и другим мешаете. Впрочем, я вижу, что другие не против.
Засунуть голову в песок и говорить, что оттуда плохо видно.
Возможно, если бы вы могли бросить в меня парочкой терминов, этот разговор имел бы больше смысла. Я перечислил названия моделей, клаудов, где они хостятся, и самые популярные агенты для кода. Если для вас это тарабарщина, ну о чем тогда речь? Вы ничем этим не пользовались, но уверенно спорите о состоянии технологии.
Эта статья - выжимка двух научных публикаций. Которые продолжают серию других публикаций. Там нет никакой магии, они подробно описали все, что сделали - любой может повторить. Но ок, маркетинг, так маркетинг.
Почему они же они не показали пример как их система пишет код который можно применять в продакшене?)
Да показали, вы просто не интересуетесь и не видите. Их модели доступны через API и в AWS Bedrock. Дальше уже дело техники, бюджета и желания - настроить агентов и работать с ними. Их уже довольно много, есть свой и у Антропик - Claude Code называется. Но мне он не нравится, я использую опенсорсные Roo Code и Aider в паре с Claude Sonnet 3.5/3.7 на AWS. Есть у нас и OpenAI модели в Azure, и Gemini на Vertex, и DeepSeek на собственных серверах. Но Клод самый лучший для моих инструментов. Я даю своим агентам проект и задачу - они автономно работают (ну, вернее, я сам настраиваю степень автономности). Я проверяю и параллельно работаю над чем-то другим. Их код - мой код, он идет в прод. Это не считается?
Если бы вы разобрались в самых элеметарных азах, LLM то не утверждали бы все то что выше написали
Какие-то алгоритмы есть. Один из самых известных - алгоритм Шора для разложения числа на простые множители. Но проблема в том, что его сложно понять без подготовки. В квантовых компьютерах нету традиционных и понятных операций с числами вроде AND или OR - там другие команды, работающие с массивами чего-то вроде взаимосвязанных вероятностей. И есть более высокоуровневые языки под конкретные эмуляторы.
Я согласен, что далеко с этим не уехать. Вакансий и правда нет. Студенты физмата еще имеют шанс попасть в лаборатории Гугла или IBM, а нам светит в лучшем случае общение с другими энтузиастами в Дискорде. Но если технология взлетит, можно оказаться в первых рядах тех, кто что-то понимает. И вполне себе откликаться на вакансии со своими поделками на Гитхабе. Примерно, как сейчас с ИИ. Но если не взлетит, все равно ок в качестве хобби. Квантовые компьютеры близки к магии.
Комментарии
Бесполезное считать, столько стоило одного удачное обучение. Нужно еще считать неудачные прогоны, затраты на исследования, сбор данных, зарплаты программистов и ученых, железо. Тогда, возможно, 100 миллионов и получится. Раньше DeepSeek говорили, то потратили 5 миллионов, но не уточняли, на что именно. R1 - это надстройка над уже существующей моделью V3, стоимость разработки которой на раскрывалась. Вдобавок, у компании уже был свой дата центр с кучей Nvidea чипов. В общем, все мутно. Очевидно только, что американские и китайские ИИ компании жестко конкурируют и пытаются насолить друг другу.
Gemini - это общее название всех гугловых ИИ, а не чатбот. В поисковике, очевидно, другая модель.
Как это связано со статьей? Трамп хочет, чтобы ИИ компании хранили чаты и сливали их правительству по требованию. OpenAI уже заставили это делать - они обязаны хранить вечно даже удаленные пользователями чаты.
Ух, сразу две скрепы задел?
Зачем переживать за инвесторов ИИ компаний? Эти умники про потребителей говорят. Если в каком-нибудь банке ИИ автоматизирует мелкую рутину за $50/месяц, для банка это очевидная польза. Если ИИ-ассистент за $100-200/месяц на человека хотя бы немного помогает разработчику - это тоже польза. А как ИИ-компании деньги делают - это уже их дело. Вроде как, нет у них проблем ни с инвестициями, ни с клиентами.
Ты уже больше года в каждой новости про ИИ отмечаешься с критикой. Удалось ли за это время какой-нибудь Cursor попробовать? Неужели вообще никакой пользы от ИИ не видно?
Есть популярная теория, будто офисы крупных компаний сильно влияют на экономику городов. Подстраивают под себя инфраструктуру, поднимают цены на недвижимость, привлекают мелкие бизнесы. Компании получают налоговые льготы, менеджеры - дополнительные бюджеты. Много кому не выгодно, когда люди перестают в эти самые офисы ездить. Разговоры про продуктивность, мотивацию, рабочую атмосферу - все это ерунда. За те зарплаты, которые там платят, можно без проблем найти адекватных работников и манагеров на ремоут. В компания вроде Майкрософта перформанс оценивается дважды в год, за два отзыва уровня meet expectations почти гарантированное увольнение (PIP в простонародье).
Еще есть интересный феномен культа своих CEO. Все, что они говорят, воспринимается как абсолютная истина, с которой не принято не соглашаться. Сказали ездить в офисы, потому что так лучше, - половина сотрудников постит в Линкедине, что так даже лучше и вообще очень здорово. Майкрософт придумал новую байку про какие-то "социальные связи" - видимо, стандартная тема про продуктивность слишком уж не убедительна.
Ну, и что это объясняет? Почему классификаторы не могут быть интеллектом? Что вообще значит "классификатор" в контексте штуки, с которой можно разговаривать на любые темы? Если уж на то пошло, то классификация - разделение на группы, а трансформер продолжает цепочку токентов новыми токенами.
Все это, возможно, потому, что внедрить ИИ можно хорошо, а можно плохо. В моей компании, например, активно внедряют гугловые ИИ, включая их инструменты для кодинга - Gemini Code assist и gemini-cli. Было большое внутреннее исследование, где сравнивались разные решения и gemini code assist все победил. Проблема в том, что это плохой инструмент. Стоит дать ему задачу, где нужно править несколько файлов в проекте, как он непременно свалится с ошибкой. Слак канал саппорта с представителями Гугла полон жалоб. Хорошие инструменты (вроде Claude Code или хотя бы Cursor) в исследование почему-то не попали. Да и вцелом, если почитать отчет, там какие-то совсем не те метрики выбора инструментов. Получается, наши топы купились на громкое имя Гугла и презентации, а своих вайбкодеров спросить забыли. Похожие истории у всех моих знакомых. У кого-то Cody внедрили, у кого-то Devin AI - хорошие сэйлсы продают AI мусор, а менеджеры рисуют фейковые метрики.
Ну, и все эти проценты роста продуктивности часто вызывают сомнение. Никто никогда не говорит, как именно замеряет эту самую продуктивность. Количество уязвимостей - тоже мутная метрика. Взял старую версию библиотеки - и вот у тебя сотни уязвимостей. Обновил - и ты чемпион по их закрытию. Прибыль - показатель получше, но опять же - это точно ИИ виноват?
Вибрационного кодинга? Заявка на перевод года
Меня как-то из-за пирсинга на работу в банк не взяли. Еще, помню, на военной кафедре сказали прийти в костюмах, а потом в этих самых костюмах повезли на стройку национальной библиотеки.
Все эти пляски вокруг внешнего вида офисного планктона указывают на бесхребетность HR и некоторую неадекватность начальства. Что-то вроде составления гороскопов на команду или окуривания офиса шалфеем.
levels.fyi говорит, что разница почти в полтора раза
https://www.levels.fyi/companies/hellofresh/salaries/software-engineer?country=91
Слышу "ИИ" - крещусь и звоню в милицию
Anthropic никогда не добавляли никакие уровни приоритетной обработки. У них подписка: чем больше платишь, тем больше запросов получаешь. Закончились запросы - сидишь и ждешь следующего 5-часового окна. Если речь про API, то там чем больше денег на счету, тем выше лимиты.
Это как раз Cursor придумали быстрые и медленные токены. Первые Х токенов по подписке быстрые, а после скорость сильно падает, пока новые месяц не наступит.
Впрочем, на счет вероятностей я не прав - там в конце есть фаза выборки токена из вектора. До нее процесс полностью детерминированный, в обучении вероятности тоже не участвуют. LLM не вероятностная модель. Это модель, в которой хранятся свойства, понятия, связи между ними, закодированные в числа. Каждый нейрон представляет собой такое свойство (вернее много свойств сразу). Работа с сетью - не поиск, а прогон входной матрицы через все ее свойства слой за слоем. Какие-то уходят в ноль, какие-то дают растущие значения - в конце все сходится в один вектор. Из него не обязательно выбирать один токен - весь вектор содержит полезную информацию. Но нам для интерпретации нужно что-то выбрать - только тут в игру вступают вероятности.
Просто у меня есть практика, а у вас нет. И азов у вас нет, потому что нигде в нейронке нету вероятностей. Вообще нигде, ни одной формулы. Аналогия с поисковиком хорошая для детей девятого класса, но никого поиска там тоже нет. Вы и сами не разбираетесь, и другим мешаете. Впрочем, я вижу, что другие не против.
Что вы хотите, чтобы я показал? Проект, продукт? Как вы поймете, что они написаны ИИ? ИИ код никак не отличается от человеческого (разве что коментов больше) - нужно видеть процесс. Если в какой-то гитхаб репе будет написано, что 100% сгенерено ИИ, вы поверите? Идите на ютуб и ищите "roocode project showcase". Что-нибудь вроде этого https://www.youtube.com/watch?v=sOpryi5N5WA&ab_channel=MichaelFricker или этого https://www.youtube.com/watch?v=vooolVLItTQ&ab_channel=GosuCoder
Засунуть голову в песок и говорить, что оттуда плохо видно.
Возможно, если бы вы могли бросить в меня парочкой терминов, этот разговор имел бы больше смысла. Я перечислил названия моделей, клаудов, где они хостятся, и самые популярные агенты для кода. Если для вас это тарабарщина, ну о чем тогда речь? Вы ничем этим не пользовались, но уверенно спорите о состоянии технологии.
Я вам на это уже отвечал, но вы не хотите со мной разговаривать и зачем-то репостите одно и то же из темы в тему. Держите плюс, и разойдемся на этом
Эта статья - выжимка двух научных публикаций. Которые продолжают серию других публикаций. Там нет никакой магии, они подробно описали все, что сделали - любой может повторить. Но ок, маркетинг, так маркетинг.
Да показали, вы просто не интересуетесь и не видите. Их модели доступны через API и в AWS Bedrock. Дальше уже дело техники, бюджета и желания - настроить агентов и работать с ними. Их уже довольно много, есть свой и у Антропик - Claude Code называется. Но мне он не нравится, я использую опенсорсные Roo Code и Aider в паре с Claude Sonnet 3.5/3.7 на AWS. Есть у нас и OpenAI модели в Azure, и Gemini на Vertex, и DeepSeek на собственных серверах. Но Клод самый лучший для моих инструментов. Я даю своим агентам проект и задачу - они автономно работают (ну, вернее, я сам настраиваю степень автономности). Я проверяю и параллельно работаю над чем-то другим. Их код - мой код, он идет в прод. Это не считается?
Парировать такое просто нечем, сдаюсь
Какие-то алгоритмы есть. Один из самых известных - алгоритм Шора для разложения числа на простые множители. Но проблема в том, что его сложно понять без подготовки. В квантовых компьютерах нету традиционных и понятных операций с числами вроде AND или OR - там другие команды, работающие с массивами чего-то вроде взаимосвязанных вероятностей. И есть более высокоуровневые языки под конкретные эмуляторы.
Я согласен, что далеко с этим не уехать. Вакансий и правда нет. Студенты физмата еще имеют шанс попасть в лаборатории Гугла или IBM, а нам светит в лучшем случае общение с другими энтузиастами в Дискорде. Но если технология взлетит, можно оказаться в первых рядах тех, кто что-то понимает. И вполне себе откликаться на вакансии со своими поделками на Гитхабе. Примерно, как сейчас с ИИ. Но если не взлетит, все равно ок в качестве хобби. Квантовые компьютеры близки к магии.
Разве? Статья про факт прохождения теста Тьюринга, а не про то, что это означает. Единственный вывод:
Ни слова про интеллект и разумность.