Комментарии

Бесполезное считать, столько стоило одного удачное обучение. Нужно еще считать неудачные прогоны, затраты на исследования, сбор данных, зарплаты программистов и ученых, железо. Тогда, возможно, 100 миллионов и получится. Раньше DeepSeek говорили, то потратили 5 миллионов, но не уточняли, на что именно. R1 - это надстройка над уже существующей моделью V3, стоимость разработки которой на раскрывалась. Вдобавок, у компании уже был свой дата центр с кучей Nvidea чипов. В общем, все мутно. Очевидно только, что американские и китайские ИИ компании жестко конкурируют и пытаются насолить друг другу.

0

Gemini - это общее название всех гугловых ИИ, а не чатбот. В поисковике, очевидно, другая модель.

0

Как это связано со статьей? Трамп хочет, чтобы ИИ компании хранили чаты и сливали их правительству по требованию. OpenAI уже заставили это делать - они обязаны хранить вечно даже удаленные пользователями чаты.

0

Зачем переживать за инвесторов ИИ компаний? Эти умники про потребителей говорят. Если в каком-нибудь банке ИИ автоматизирует мелкую рутину за $50/месяц, для банка это очевидная польза. Если ИИ-ассистент за $100-200/месяц на человека хотя бы немного помогает разработчику - это тоже польза. А как ИИ-компании деньги делают - это уже их дело. Вроде как, нет у них проблем ни с инвестициями, ни с клиентами.

Ты уже больше года в каждой новости про ИИ отмечаешься с критикой. Удалось ли за это время какой-нибудь Cursor попробовать? Неужели вообще никакой пользы от ИИ не видно?

1

Есть популярная теория, будто офисы крупных компаний сильно влияют на экономику городов. Подстраивают под себя инфраструктуру, поднимают цены на недвижимость, привлекают мелкие бизнесы. Компании получают налоговые льготы, менеджеры - дополнительные бюджеты. Много кому не выгодно, когда люди перестают в эти самые офисы ездить. Разговоры про продуктивность, мотивацию, рабочую атмосферу - все это ерунда. За те зарплаты, которые там платят, можно без проблем найти адекватных работников и манагеров на ремоут. В компания вроде Майкрософта перформанс оценивается дважды в год, за два отзыва уровня meet expectations почти гарантированное увольнение (PIP в простонародье).

Еще есть интересный феномен культа своих CEO. Все, что они говорят, воспринимается как абсолютная истина, с которой не принято не соглашаться. Сказали ездить в офисы, потому что так лучше, - половина сотрудников постит в Линкедине, что так даже лучше и вообще очень здорово. Майкрософт придумал новую байку про какие-то "социальные связи" - видимо, стандартная тема про продуктивность слишком уж не убедительна.

1

это классификаторы

Ну, и что это объясняет? Почему классификаторы не могут быть интеллектом? Что вообще значит "классификатор" в контексте штуки, с которой можно разговаривать на любые темы? Если уж на то пошло, то классификация - разделение на группы, а трансформер продолжает цепочку токентов новыми токенами.

0

Все это, возможно, потому, что внедрить ИИ можно хорошо, а можно плохо. В моей компании, например, активно внедряют гугловые ИИ, включая их инструменты для кодинга - Gemini Code assist и gemini-cli. Было большое внутреннее исследование, где сравнивались разные решения и gemini code assist все победил. Проблема в том, что это плохой инструмент. Стоит дать ему задачу, где нужно править несколько файлов в проекте, как он непременно свалится с ошибкой. Слак канал саппорта с представителями Гугла полон жалоб. Хорошие инструменты (вроде Claude Code или хотя бы Cursor) в исследование почему-то не попали. Да и вцелом, если почитать отчет, там какие-то совсем не те метрики выбора инструментов. Получается, наши топы купились на громкое имя Гугла и презентации, а своих вайбкодеров спросить забыли. Похожие истории у всех моих знакомых. У кого-то Cody внедрили, у кого-то Devin AI - хорошие сэйлсы продают AI мусор, а менеджеры рисуют фейковые метрики.

Ну, и все эти проценты роста продуктивности часто вызывают сомнение. Никто никогда не говорит, как именно замеряет эту самую продуктивность. Количество уязвимостей - тоже мутная метрика. Взял старую версию библиотеки - и вот у тебя сотни уязвимостей. Обновил - и ты чемпион по их закрытию. Прибыль - показатель получше, но опять же - это точно ИИ виноват?

0

Меня как-то из-за пирсинга на работу в банк не взяли. Еще, помню, на военной кафедре сказали прийти в костюмах, а потом в этих самых костюмах повезли на стройку национальной библиотеки.

Все эти пляски вокруг внешнего вида офисного планктона указывают на бесхребетность HR и некоторую неадекватность начальства. Что-то вроде составления гороскопов на команду или окуривания офиса шалфеем.

0

Anthropic никогда не добавляли никакие уровни приоритетной обработки. У них подписка: чем больше платишь, тем больше запросов получаешь. Закончились запросы - сидишь и ждешь следующего 5-часового окна. Если речь про API, то там чем больше денег на счету, тем выше лимиты.

Это как раз Cursor придумали быстрые и медленные токены. Первые Х токенов по подписке быстрые, а после скорость сильно падает, пока новые месяц не наступит.

0

Впрочем, на счет вероятностей я не прав - там в конце есть фаза выборки токена из вектора. До нее процесс полностью детерминированный, в обучении вероятности тоже не участвуют. LLM не вероятностная модель. Это модель, в которой хранятся свойства, понятия, связи между ними, закодированные в числа. Каждый нейрон представляет собой такое свойство (вернее много свойств сразу). Работа с сетью - не поиск, а прогон входной матрицы через все ее свойства слой за слоем. Какие-то уходят в ноль, какие-то дают растущие значения - в конце все сходится в один вектор. Из него не обязательно выбирать один токен - весь вектор содержит полезную информацию. Но нам для интерпретации нужно что-то выбрать - только тут в игру вступают вероятности.

0

Просто у меня есть практика, а у вас нет. И азов у вас нет, потому что нигде в нейронке нету вероятностей. Вообще нигде, ни одной формулы. Аналогия с поисковиком хорошая для детей девятого класса, но никого поиска там тоже нет. Вы и сами не разбираетесь, и другим мешаете. Впрочем, я вижу, что другие не против.

Что вы хотите, чтобы я показал? Проект, продукт? Как вы поймете, что они написаны ИИ? ИИ код никак не отличается от человеческого (разве что коментов больше) - нужно видеть процесс. Если в какой-то гитхаб репе будет написано, что 100% сгенерено ИИ, вы поверите? Идите на ютуб и ищите "roocode project showcase". Что-нибудь вроде этого https://www.youtube.com/watch?v=sOpryi5N5WA&ab_channel=MichaelFricker или этого https://www.youtube.com/watch?v=vooolVLItTQ&ab_channel=GosuCoder

0

Засунуть голову в песок и говорить, что оттуда плохо видно.

Возможно, если бы вы могли бросить в меня парочкой терминов, этот разговор имел бы больше смысла. Я перечислил названия моделей, клаудов, где они хостятся, и самые популярные агенты для кода. Если для вас это тарабарщина, ну о чем тогда речь? Вы ничем этим не пользовались, но уверенно спорите о состоянии технологии.

0

Я вам на это уже отвечал, но вы не хотите со мной разговаривать и зачем-то репостите одно и то же из темы в тему. Держите плюс, и разойдемся на этом

0

Вы привели пример маркетинговой сатьи

Эта статья - выжимка двух научных публикаций. Которые продолжают серию других публикаций. Там нет никакой магии, они подробно описали все, что сделали - любой может повторить. Но ок, маркетинг, так маркетинг.

Почему они же они не показали пример как их система пишет код который можно применять в продакшене?)

Да показали, вы просто не интересуетесь и не видите. Их модели доступны через API и в AWS Bedrock. Дальше уже дело техники, бюджета и желания - настроить агентов и работать с ними. Их уже довольно много, есть свой и у Антропик - Claude Code называется. Но мне он не нравится, я использую опенсорсные Roo Code и Aider в паре с Claude Sonnet 3.5/3.7 на AWS. Есть у нас и OpenAI модели в Azure, и Gemini на Vertex, и DeepSeek на собственных серверах. Но Клод самый лучший для моих инструментов. Я даю своим агентам проект и задачу - они автономно работают (ну, вернее, я сам настраиваю степень автономности). Я проверяю и параллельно работаю над чем-то другим. Их код - мой код, он идет в прод. Это не считается?

Если бы вы разобрались в самых элеметарных азах, LLM то не утверждали бы все то что выше написали

Парировать такое просто нечем, сдаюсь

-1

Какие-то алгоритмы есть. Один из самых известных - алгоритм Шора для разложения числа на простые множители. Но проблема в том, что его сложно понять без подготовки. В квантовых компьютерах нету традиционных и понятных операций с числами вроде AND или OR - там другие команды, работающие с массивами чего-то вроде взаимосвязанных вероятностей. И есть более высокоуровневые языки под конкретные эмуляторы.

Я согласен, что далеко с этим не уехать. Вакансий и правда нет. Студенты физмата еще имеют шанс попасть в лаборатории Гугла или IBM, а нам светит в лучшем случае общение с другими энтузиастами в Дискорде. Но если технология взлетит, можно оказаться в первых рядах тех, кто что-то понимает. И вполне себе откликаться на вакансии со своими поделками на Гитхабе. Примерно, как сейчас с ИИ. Но если не взлетит, все равно ок в качестве хобби. Квантовые компьютеры близки к магии.

0

Разве? Статья про факт прохождения теста Тьюринга, а не про то, что это означает. Единственный вывод:

современные большие языковые модели (LLM) могут заменять людей в коротких взаимодействиях без возможности быть распознанными

Ни слова про интеллект и разумность.

0