Комментарии

Есть популярная теория, будто офисы крупных компаний сильно влияют на экономику городов. Подстраивают под себя инфраструктуру, поднимают цены на недвижимость, привлекают мелкие бизнесы. Компании получают налоговые льготы, менеджеры - дополнительные бюджеты. Много кому не выгодно, когда люди перестают в эти самые офисы ездить. Разговоры про продуктивность, мотивацию, рабочую атмосферу - все это ерунда. За те зарплаты, которые там платят, можно без проблем найти адекватных работников и манагеров на ремоут. В компания вроде Майкрософта перформанс оценивается дважды в год, за два отзыва уровня meet expectations почти гарантированное увольнение (PIP в простонародье).

Еще есть интересный феномен культа своих CEO. Все, что они говорят, воспринимается как абсолютная истина, с которой не принято не соглашаться. Сказали ездить в офисы, потому что так лучше, - половина сотрудников постит в Линкедине, что так даже лучше и вообще очень здорово. Майкрософт придумал новую байку про какие-то "социальные связи" - видимо, стандартная тема про продуктивность слишком уж не убедительна.

1

это классификаторы

Ну, и что это объясняет? Почему классификаторы не могут быть интеллектом? Что вообще значит "классификатор" в контексте штуки, с которой можно разговаривать на любые темы? Если уж на то пошло, то классификация - разделение на группы, а трансформер продолжает цепочку токентов новыми токенами.

0

Все это, возможно, потому, что внедрить ИИ можно хорошо, а можно плохо. В моей компании, например, активно внедряют гугловые ИИ, включая их инструменты для кодинга - Gemini Code assist и gemini-cli. Было большое внутреннее исследование, где сравнивались разные решения и gemini code assist все победил. Проблема в том, что это плохой инструмент. Стоит дать ему задачу, где нужно править несколько файлов в проекте, как он непременно свалится с ошибкой. Слак канал саппорта с представителями Гугла полон жалоб. Хорошие инструменты (вроде Claude Code или хотя бы Cursor) в исследование почему-то не попали. Да и вцелом, если почитать отчет, там какие-то совсем не те метрики выбора инструментов. Получается, наши топы купились на громкое имя Гугла и презентации, а своих вайбкодеров спросить забыли. Похожие истории у всех моих знакомых. У кого-то Cody внедрили, у кого-то Devin AI - хорошие сэйлсы продают AI мусор, а менеджеры рисуют фейковые метрики.

Ну, и все эти проценты роста продуктивности часто вызывают сомнение. Никто никогда не говорит, как именно замеряет эту самую продуктивность. Количество уязвимостей - тоже мутная метрика. Взял старую версию библиотеки - и вот у тебя сотни уязвимостей. Обновил - и ты чемпион по их закрытию. Прибыль - показатель получше, но опять же - это точно ИИ виноват?

0

Меня как-то из-за пирсинга на работу в банк не взяли. Еще, помню, на военной кафедре сказали прийти в костюмах, а потом в этих самых костюмах повезли на стройку национальной библиотеки.

Все эти пляски вокруг внешнего вида офисного планктона указывают на бесхребетность HR и некоторую неадекватность начальства. Что-то вроде составления гороскопов на команду или окуривания офиса шалфеем.

0

Anthropic никогда не добавляли никакие уровни приоритетной обработки. У них подписка: чем больше платишь, тем больше запросов получаешь. Закончились запросы - сидишь и ждешь следующего 5-часового окна. Если речь про API, то там чем больше денег на счету, тем выше лимиты.

Это как раз Cursor придумали быстрые и медленные токены. Первые Х токенов по подписке быстрые, а после скорость сильно падает, пока новые месяц не наступит.

0

Впрочем, на счет вероятностей я не прав - там в конце есть фаза выборки токена из вектора. До нее процесс полностью детерминированный, в обучении вероятности тоже не участвуют. LLM не вероятностная модель. Это модель, в которой хранятся свойства, понятия, связи между ними, закодированные в числа. Каждый нейрон представляет собой такое свойство (вернее много свойств сразу). Работа с сетью - не поиск, а прогон входной матрицы через все ее свойства слой за слоем. Какие-то уходят в ноль, какие-то дают растущие значения - в конце все сходится в один вектор. Из него не обязательно выбирать один токен - весь вектор содержит полезную информацию. Но нам для интерпретации нужно что-то выбрать - только тут в игру вступают вероятности.

0

Просто у меня есть практика, а у вас нет. И азов у вас нет, потому что нигде в нейронке нету вероятностей. Вообще нигде, ни одной формулы. Аналогия с поисковиком хорошая для детей девятого класса, но никого поиска там тоже нет. Вы и сами не разбираетесь, и другим мешаете. Впрочем, я вижу, что другие не против.

Что вы хотите, чтобы я показал? Проект, продукт? Как вы поймете, что они написаны ИИ? ИИ код никак не отличается от человеческого (разве что коментов больше) - нужно видеть процесс. Если в какой-то гитхаб репе будет написано, что 100% сгенерено ИИ, вы поверите? Идите на ютуб и ищите "roocode project showcase". Что-нибудь вроде этого https://www.youtube.com/watch?v=sOpryi5N5WA&ab_channel=MichaelFricker или этого https://www.youtube.com/watch?v=vooolVLItTQ&ab_channel=GosuCoder

0

Засунуть голову в песок и говорить, что оттуда плохо видно.

Возможно, если бы вы могли бросить в меня парочкой терминов, этот разговор имел бы больше смысла. Я перечислил названия моделей, клаудов, где они хостятся, и самые популярные агенты для кода. Если для вас это тарабарщина, ну о чем тогда речь? Вы ничем этим не пользовались, но уверенно спорите о состоянии технологии.

0

Я вам на это уже отвечал, но вы не хотите со мной разговаривать и зачем-то репостите одно и то же из темы в тему. Держите плюс, и разойдемся на этом

0

Вы привели пример маркетинговой сатьи

Эта статья - выжимка двух научных публикаций. Которые продолжают серию других публикаций. Там нет никакой магии, они подробно описали все, что сделали - любой может повторить. Но ок, маркетинг, так маркетинг.

Почему они же они не показали пример как их система пишет код который можно применять в продакшене?)

Да показали, вы просто не интересуетесь и не видите. Их модели доступны через API и в AWS Bedrock. Дальше уже дело техники, бюджета и желания - настроить агентов и работать с ними. Их уже довольно много, есть свой и у Антропик - Claude Code называется. Но мне он не нравится, я использую опенсорсные Roo Code и Aider в паре с Claude Sonnet 3.5/3.7 на AWS. Есть у нас и OpenAI модели в Azure, и Gemini на Vertex, и DeepSeek на собственных серверах. Но Клод самый лучший для моих инструментов. Я даю своим агентам проект и задачу - они автономно работают (ну, вернее, я сам настраиваю степень автономности). Я проверяю и параллельно работаю над чем-то другим. Их код - мой код, он идет в прод. Это не считается?

Если бы вы разобрались в самых элеметарных азах, LLM то не утверждали бы все то что выше написали

Парировать такое просто нечем, сдаюсь

-1

Какие-то алгоритмы есть. Один из самых известных - алгоритм Шора для разложения числа на простые множители. Но проблема в том, что его сложно понять без подготовки. В квантовых компьютерах нету традиционных и понятных операций с числами вроде AND или OR - там другие команды, работающие с массивами чего-то вроде взаимосвязанных вероятностей. И есть более высокоуровневые языки под конкретные эмуляторы.

Я согласен, что далеко с этим не уехать. Вакансий и правда нет. Студенты физмата еще имеют шанс попасть в лаборатории Гугла или IBM, а нам светит в лучшем случае общение с другими энтузиастами в Дискорде. Но если технология взлетит, можно оказаться в первых рядах тех, кто что-то понимает. И вполне себе откликаться на вакансии со своими поделками на Гитхабе. Примерно, как сейчас с ИИ. Но если не взлетит, все равно ок в качестве хобби. Квантовые компьютеры близки к магии.

0

Разве? Статья про факт прохождения теста Тьюринга, а не про то, что это означает. Единственный вывод:

современные большие языковые модели (LLM) могут заменять людей в коротких взаимодействиях без возможности быть распознанными

Ни слова про интеллект и разумность.

0

Технологии типа LLM, это вероятностная модель, а не модель основанная на строгих логических рассуждениях

Ну, вот, например, последнее исследование от Антропик, которое показывает, что, даже просто угадывая следующее слово, модель внутри делает что-то похожее на рассуждения: https://www.anthropic.com/news/tracing-thoughts-language-model У них там есть специальная модель, в которой лучше видно, какие узлы внутри нейронки активируются, когда она генерирует слово. И вот ее, например, просят сложить два числа. В каких-то случаях она выдает ответ сразу - потому что просто запомнила его во время обучения. Но если числа более сложные, например 36 и 59, то внутри происходит кое-что странное. Каждое число активирует свою цепочку узлов, округляется, распадается на какие-то числа попроще. Модель приближает их к тому, что лучше знает. Потом все ветки сходятся в одну - и это ответ. Это немного похоже на то, как человек работает с такими числами в уме. Это похоже на логику. В статье несколько таких примеров. Когда нужно продолжить стих, модель активирует две группы веток - для смысла и для рифмы.

У всех компаний теперь есть "думающие" модели. Которые сначала геренят "мысли" - стену текста, из которой потом собирают финальный ответ. В этой стене текста модель сначала планирует ответ, разбирает задачу на подзадачи, идет по ним, корректирует нестыковки в сгенеренном тексте. И это помогает. Собственно, все лидирующие модели - думающие.

Ну, и последний уровень абстракции - цикл в коде, который запускает модель. Все приличные ассистенты для кода на каждый запрос пользователя выполняют целую кучу внутренних запросов к модели. Сначала просят ее собрать данные, потом сгенерить код, потом проверить, исправить ошибки, повторить, если нужно. Сами берут файлы из проекта, сам мержат в них изменения. Выходит дорого (много запросов, они все большие и тяжелые, думающие модели еще и мысли генерят для каждого промежуточного ответа), но намного эффективнее, чем если просто копипастить куски кода в чатбот.

Живой программист все еще лучше. Все эти новости про автоматизацию - хайп и скрытые сокращения на почве финансов. Но ваши рассуждения - это про то, что было год-полтора назад. В современных ИИ системах много логики на разных уровнях.

-4

Это лучше, чем ничего, но сервера в США (в AWS и Azure) - это довольно опасно. Особенно сейчас, когда DOGE просто приходит, куда хочет. Слать правительство можно только до некоторой степени, пока оно не стучит в двери. Штукой для выбивания дверей. Мой VPN для торренов в Панаме, где у любителей бороться с терроризмом нет юрисдикции.

0

Если отбросить троллинг, то сейчас просто нет чатов, которым можно довериться. Никто не спрашивают у вас ключи, у вас их нет. Все приватные ключи у компаний под честное слово. Все root сертификаты тоже у них.

Единственное, что можно сделать, это вернуться в эпоху де-централизованных peer-to-peer решений.

0

Все может быть куда проще. Сначала тарифы для всего мира, а потом послабления в индивидуальном порядке. Удобный инструмент для торгов, который появился на ровном месте. Все слова и дейсвия Трампа нужно проверять временем - он сегодня одно говорит, а завтра другое.

Средний американец ждет перемен. В США разогналась инфляция, поднялись проценты по ипотеке, повысилась безработица. Все еще можно заработать много денег при желании, но люди без вышки и далеко идущих планов чувствуют, что беднеют. Им нет дела до всего, что происходит за пределами Штатов. Им надоели демократы, которые больше обеспокоены внешними проблемами и помощью всему миру, несмотря на растущий гос. долг. Средний американец не против, чтобы Трамп все сжег и построил заново.

4

Во времена Тьюринга было нормально думать, что если компьютер сможет хорошо разговаривать, то в нем точно будет интеллект. Сейчас все понимают, что это не так. Или не совсем так - даже есть интеллект и есть, то он какой-то другой, трудно сравнимый с человеческим. Тест Тьюринга потерял актуальность. Думаю, он уже давно пройден - все зависит от того, кого посадить тестировать. Специалист по ИИ раскусит любую модель, мою бабушку впечатлит и GPT-2.

На циферблат часов смотрит другая модель, которая не умеет разговаривать. Она выдает массив объектов и координат. К ней вряд ли применимо понятие интеллекта.

Бессмысленно сравнивать нейроны ИИ и живых существ. У них общего только название. Да и то, в литературе обычно вместо "нейронов" используют слово "юнит".

0