Вижу несколько причин. Во-первых, компании хотят видеть как люди взаимодействуют между собой в офисе. И во-вторых, работа в офисе помогает избежать ситуации, когда сотрудники работают на двух проектах одновременно.
И все? Это все причины? Компания готова тратиться на аренду и обслуживание офиса только ради вот этого? И нет никаких других способов выжать из гребца нужные компании результаты? Не знаю, не знаю...
Есть много других версий. Офисы помогают развивать мелкие бизнесы и поднимают стоимость недвиги вокруг себя - администрациям городов выгодно такое, они могут помогать разными льготами. Ну, и людей проще к себе привязывать - ты вынужден переезжать и подстраивать свою жизнь под этот самый офис. Много раз подумаешь, прежде чем увольняться, продавать жилье и ехать всем табором к другому офису. Да, это просто теории - кто его знает, как там на самом деле. Но совсем не смотреть в эту сторону странно. Вернее, это значит противоречить официальной позиции компании, которая вся про лучшую продуктивность в галдеже опенспейса. Скучно и не интересно получается.
У меня товарищ-радиолог подрабатывает в компании, которая создает тренировочные данные для ИИ в его домене. Платят больше, чем на основной работе. По сути, он помогает самого себя автоматизировать. Но это все где-то в будущем, а пока что у него две неплохие работы - ему ок. Но и он, и Хуанг все понимают.
Там все гораздо хуже. У меня их прилага начала подвисать месяца два назад. Какое-то время помогало убить в процессах и перезапустить. Потом она перестала убиваться. Потом просто перестала работать - пришлось с плясками и бубном удалить и жить без прилаги. Вчера пришло письмо, что они все починили. Поставил новую версию - зависла на старте, в процессах не убивается. Еще и на рассылку меня подписали автоматом. Дно, в общем.
Слово "понимание" в принципе сложно применить к чему-то не живому. Мы все интуитивно "понимаем", что значит "понимать", но с четким определением, которое не привязано к существам с биологическими мозгами, проблемы. Отсюда любая идея понимающего компьютера кажется по умолчанию спорной.
Если забыть на минуту, как и почему работают эти модели, современный ИИ очень реалистично имитирует человеческое понимание. Очень трудно задать чату ЖПТ такой вопрос, о который он споткнется, потому что "не понял", о чем речь. Ну, и я бы поспорил, что принцип работы ЛЛМ ближе к игральному кубику, чем к настоящему пониманию. Но пока не было никаких аргументов, с которыми можно спорить. Ты обозвал автора и "исследователей из США" дураками, просто потому что. Что именно заложено в архитектуре? Ты прямо настолько хорошо понимаешь архитектуру трансформеров и все, что происходит в их latent space? Откуда уверенность, что можно вести диалог и проходить тест Тьюринга, но при этом не понимать? Это как минимум известный парадокс, над которым можно поломать голову, а не спешить с выводами и оскорблениями.
Так тут про тех, кто это ИИ разрабатывает. Там обычно в требованиях степень, математика и публикации, а не 15 лет опыта на джаве. Ну, и зп не то, чтобы космос, учитывая, что офисы всех перечисленных компаний в Калифорнии и прочих дорогих местах.
Это гибрид двух нейронок. Первая берет скриншот, разбивает на кусочки и кодирует в вектора чисел точно так же, как это делает LLM с текстом. Visual Transformer. Они пробовали на цепочке скриншотов, но оказалось, что с одним последним работает не хуже. Кодировать много скриншотов сильно сложнее. Вторая - diffusion модель, которая берет случайный шум и "проявляет" его в цепочку действий, используя результат первой как шаблон. Агент ее "играет".
Как обычно со всеми этими нейронками - странно, что это вообще работает. Но работает.
Ну, это примерно как отжать у Венесуэлы танкер с нефтью под предлогом борьбы с фентанилом. Как ни ищи логику, все равно кто-то что-то не договаривает. Особенно, когда в одной новости Трамп и иммигрант не совсем белого цвета кожи.
Минфин, конечно, отличный источник американских новостей.
Nvidia и Oracle вообще-то показали рекордные прибыли. Есть много догадок, почему их акции упали. В основном, это ощущение пузыря. У Nvidia большую часть прибыли обеспечили всего 4 клиента, которых они не называют. Но у многих возникли сомнения, что эти клиенты заплатили реальными деньгами, а не обещаниями и долгами. И что Nvidia поставила им реальный товар, а не обещания и долги. В любом случае, все немного сложнее, чем просто отчеты о расходах. У акции Nvidia такой P/E ratio, с каким долго не живут - возможно, поэтому многие не верят, что они и дальше будут расти, и просто продают на пике. Особенно когда весь рынок падал в ноябре. Но при всем при этом за год NVDA принесли владельцам 27.46% с учетом все падений включая апрель, когда Трамп тарифы объявил.
Особая категория — это кандидаты, уверенные, что ИИ поможет пройти любое интервью. Недавно собеседовала продакта. Задаю точный вопрос — и он начинает зачитывать мне с экрана куски из PMBOK. Очки выдают отражение текста, а я узнаю фрагменты, потому что сама его читала.
Я эту историю про очки слышал уже раз 5. Не понятно, в каком месте интервью продакту могло понадобиться что-то зачитывать из PMBOK рекрутеру. И что вы все будете делать, когда придется кандидат с ИИ, но без очков? И зачитает что-то, чего вы не читали. Такое ощущение, что весь этот абзац только для того, чтобы похвастаться чтением PMBOK.
Я верю, что за годы работы с людьми можно всякого повидать. Но разве работа рекрутера не в том заключается, чтобы самому не опускаться до того же уровня?
Из текста не сильно понятно, о чем он говорит. Skill - это фича их кодинг ассисента Claude Code. Там есть основной агент, с которым ты общаешься, и он может делегировать задачи другим агентам, а может по контексту подгружать куски инструкций себе в контекст. Вот это последнее они называют skills. Я много использую Claude Code, но какого-то серьезного применения этим skills не нашел. Мне лень настраивать эти инструкции - они постоянно устаревают, и у меня мало повторяющихся однотипных задач. Некоторые люди пользуются и говорят, что им помогает. Окей, но не понятно, что тут такого революционного.
Сейчас только ленивый не говорит, что LLM - это тупиковая ветка развития. И что забрасывание ресурсами и данными не работает. 2 года назад работало, а потом перестало. Год назад казалось, что chain of thoughts работает, но потом выяснилось, что и это не то. Если послушать свежие интервью разных людей вроде Ильи Суцковера, Андрея Карпаты, Яна Лекуна (это его в Мете пацан из Scale AI не сменил) - все они возвращаются к исследованиям с маленькими бюджетами. У Меты и прочих много денег идет именно на рантайм. Суцковер поднял пару миллиардов и занимается чем-то без шумихи. Чем - не говорит, но он всегда топил за обучение с подкреплением. Карпаты говорит, что нужно как-то из LLM выкинуть знания и оставить только способность к обобщению, которой сейчас в них очень мало. У Гугла много интересных бумаг по долговременной памяти и постоянному обучению. Ну, и Китай не стоит на месте - подхватит, если у США не получится.
Помню, как в офисе нужно было столы поносить с одного этажа на другой и всех нас с нашими инженерными образованиями припахали. До сих пор не могу оправиться
Поводом для охлаждения стал августовский релиз GPT-5, воспринятый неоднозначно
Я так и не понял, что такого неоднозначного было в том релизе. Была огромная истерика на Реддите из-за того, что OpenAI убирает 4o модель. Ту самую, которая имела склонность слишком со всем соглашаться, срываться на эмоции, вести себя как зумер и проваливаться в пучины эзотерики. А из GPT-5 все это выпилили, двинув "характеры" в платные фичи. Оказалось, что есть большой сегмент неплатящих пользователей, для который 4o был другом и даже больше - и все они довольно сильно расстроились. Все сайты подхватили эту истерику и растиражировали как большой провал. И не важно, что GPT-5 в целом норм, цены на апишки упали в полтора раза, кодинг ассистент codex, наконец, догнал и перегнал Claude Code.
Что до Гугла, то в этом месяце их акции пошли вверх, тогда как у всех остальных они упали. И теперь все аналитики постфактум это объясняют. Да, Гугл молодец. Но он так же, как и все, жгет миллиарды на ИИ без видимости окупаемости в ближайшее время. И их успешный релиз уже затмили другие релизы последних двух недель. Что до новых чипов - круто, но пусть сначала выпустят и растиражируют. А то все кругом свои чипы делают, но Nvidia 4090/5090 все равно стоит как двушка в спальном райное.
Помню, как 3 года назад мне было грустно от мысли, что вот он - ИИ из книжек, - но доступ к нему контролируют большие компании. Сегодня есть, а завтра вжух - и подписки, цензура, Сэм Алтман читает мои чаты и подсовывает мне рекламу. И вот спустя какое-то время я могу скачать модель примерно того же уровня и запустить на собственном железе. И железо самое обычное - игровой комп, собранный 6 лет назад. В принципе, даже GPU не обязательно, но с ней намного быстрее.
И да, подписки выгоднее и лучше. Но хорошо иметь альтернативу на всякий случай. И приватность - вещь не лишняя. Пойди спроси у чата жпт, как чай с волшебными грибами заварить или торрент клиент настроить - хорошо, если ФБР не вызовет.
Если речь только про рантайм, то сейчас много маленьких моделей до 30B, которые вполне на уровне GPT-3.5 и запускаются на домашних видюхах за $600-800. Все, что нужно, - это гигов 16 видеопамяти. Упомянутая выше Oss:120b не влезет, но ее младший брат Oss:20b - вполне. Эти маленькие модели хорошо разговаривают, могут работать с инструментами, поддаются расцензуриванию. Вполне неплохо, когда хочется собственный ИИ дома, который не скажет "нет" и не сольет логи.
Догнал в чем? Для использования в простых агентах - да, возможно. Для кодинга - по-моему, не очень. Я перепробовал Cline/Roo Code с большим количеством моделей - все выходило хуже, чем Sonnet. В этом году OpenAI и Google подтянулись и догнали Anthropic со своими codex, gemini-cli, anti-gravity. Там не только модели, но и оптимизация инструментов. Anti-gravity шустро переключается между кодом и браузером по многу раз. Cline уже каким-то старьем ощущается на этом фоне. Claude Code позволяет переключить его на любую модель - возможно комбо с GLM будет давать хорошие результаты. Но я не уверен, что это будет дешевле. Для компании, которая не использует ИИ в своих продуктах, хостить большую модель и скейлить на всех не очень-то просто. Плюс ее нужно интегрировать во все, тогда как приватные компании уже это сделали продают вместе с интеграцией в документы, джиру и пр. Лично мне эта интеграция не нужна, но я вижу, что менеджеры ее очень хотят.
У меня этот Anti-Gravity с Gemini 3 Pro, получив задачу запустить проект, открыть его в браузере, зайти на нужную страницу и что-то там сделать, пошел и переписал аутентификацию. Он не мог залогиниться и просто добавил себе тестового юзера в код. Умно, хитро, но черт побери... Стоило сначала обсудить. Более того, эта штука так шустро работает, что ее сложно вовремя остановить. И нет никакой изоляции энвайронмента. Удобно, пока не сталкиваешься с проблемами.
В другой раз gemini-cli долго не мог починить падающий тест. В какой-то момент он выдал мне абзац текста о том, что он зашел в тупик, исчерпал все идеи, больше не может продолжать мне помогать и вообще глубоко разочарован в собственных способностях. И удалил все тесты.
В целом, тут та же проблема, что и с автопилотами. Ты доверяешь этой штуке принимать решения, и в 99% случаев все ок. Это расслабляет, пока не столкнешься с оставшимися 1% проблем. Было бы логично изолировать ИИ на своей виртуалке. Более того, все сначала так и делали. Но это слишком неудобно для рядовых пользователей. Нельзя сказать "убей процесс на 3000 порту, а то npm start падает". В итоге, все перестали так делать. Все модные ассистенты имеют доступ к системе, и только отсутствие рута останавливает их от полного контроля. Герой статьи на Винде, ему повезло меньше.
Комментарии
И все? Это все причины? Компания готова тратиться на аренду и обслуживание офиса только ради вот этого? И нет никаких других способов выжать из гребца нужные компании результаты? Не знаю, не знаю...
Есть много других версий. Офисы помогают развивать мелкие бизнесы и поднимают стоимость недвиги вокруг себя - администрациям городов выгодно такое, они могут помогать разными льготами. Ну, и людей проще к себе привязывать - ты вынужден переезжать и подстраивать свою жизнь под этот самый офис. Много раз подумаешь, прежде чем увольняться, продавать жилье и ехать всем табором к другому офису. Да, это просто теории - кто его знает, как там на самом деле. Но совсем не смотреть в эту сторону странно. Вернее, это значит противоречить официальной позиции компании, которая вся про лучшую продуктивность в галдеже опенспейса. Скучно и не интересно получается.
У меня товарищ-радиолог подрабатывает в компании, которая создает тренировочные данные для ИИ в его домене. Платят больше, чем на основной работе. По сути, он помогает самого себя автоматизировать. Но это все где-то в будущем, а пока что у него две неплохие работы - ему ок. Но и он, и Хуанг все понимают.
Там все гораздо хуже. У меня их прилага начала подвисать месяца два назад. Какое-то время помогало убить в процессах и перезапустить. Потом она перестала убиваться. Потом просто перестала работать - пришлось с плясками и бубном удалить и жить без прилаги. Вчера пришло письмо, что они все починили. Поставил новую версию - зависла на старте, в процессах не убивается. Еще и на рассылку меня подписали автоматом. Дно, в общем.
Слово "понимание" в принципе сложно применить к чему-то не живому. Мы все интуитивно "понимаем", что значит "понимать", но с четким определением, которое не привязано к существам с биологическими мозгами, проблемы. Отсюда любая идея понимающего компьютера кажется по умолчанию спорной.
Если забыть на минуту, как и почему работают эти модели, современный ИИ очень реалистично имитирует человеческое понимание. Очень трудно задать чату ЖПТ такой вопрос, о который он споткнется, потому что "не понял", о чем речь. Ну, и я бы поспорил, что принцип работы ЛЛМ ближе к игральному кубику, чем к настоящему пониманию. Но пока не было никаких аргументов, с которыми можно спорить. Ты обозвал автора и "исследователей из США" дураками, просто потому что. Что именно заложено в архитектуре? Ты прямо настолько хорошо понимаешь архитектуру трансформеров и все, что происходит в их latent space? Откуда уверенность, что можно вести диалог и проходить тест Тьюринга, но при этом не понимать? Это как минимум известный парадокс, над которым можно поломать голову, а не спешить с выводами и оскорблениями.
Так тут про тех, кто это ИИ разрабатывает. Там обычно в требованиях степень, математика и публикации, а не 15 лет опыта на джаве. Ну, и зп не то, чтобы космос, учитывая, что офисы всех перечисленных компаний в Калифорнии и прочих дорогих местах.
Это гибрид двух нейронок. Первая берет скриншот, разбивает на кусочки и кодирует в вектора чисел точно так же, как это делает LLM с текстом. Visual Transformer. Они пробовали на цепочке скриншотов, но оказалось, что с одним последним работает не хуже. Кодировать много скриншотов сильно сложнее. Вторая - diffusion модель, которая берет случайный шум и "проявляет" его в цепочку действий, используя результат первой как шаблон. Агент ее "играет".
Как обычно со всеми этими нейронками - странно, что это вообще работает. Но работает.
Ну, это примерно как отжать у Венесуэлы танкер с нефтью под предлогом борьбы с фентанилом. Как ни ищи логику, все равно кто-то что-то не договаривает. Особенно, когда в одной новости Трамп и иммигрант не совсем белого цвета кожи.
Минфин, конечно, отличный источник американских новостей.
Nvidia и Oracle вообще-то показали рекордные прибыли. Есть много догадок, почему их акции упали. В основном, это ощущение пузыря. У Nvidia большую часть прибыли обеспечили всего 4 клиента, которых они не называют. Но у многих возникли сомнения, что эти клиенты заплатили реальными деньгами, а не обещаниями и долгами. И что Nvidia поставила им реальный товар, а не обещания и долги. В любом случае, все немного сложнее, чем просто отчеты о расходах. У акции Nvidia такой P/E ratio, с каким долго не живут - возможно, поэтому многие не верят, что они и дальше будут расти, и просто продают на пике. Особенно когда весь рынок падал в ноябре. Но при всем при этом за год NVDA принесли владельцам 27.46% с учетом все падений включая апрель, когда Трамп тарифы объявил.
Я эту историю про очки слышал уже раз 5. Не понятно, в каком месте интервью продакту могло понадобиться что-то зачитывать из PMBOK рекрутеру. И что вы все будете делать, когда придется кандидат с ИИ, но без очков? И зачитает что-то, чего вы не читали. Такое ощущение, что весь этот абзац только для того, чтобы похвастаться чтением PMBOK.
Я верю, что за годы работы с людьми можно всякого повидать. Но разве работа рекрутера не в том заключается, чтобы самому не опускаться до того же уровня?
Помню, 20 лет назад мой препод по математике жаловался: один написал диссертацию, другой ее опроверг - в итоге 2 доктора наук и 0 результата.
Ничего с приходом ИИ не изменилось. Большая часть работ пишется чисто для портфолио.
Из текста не сильно понятно, о чем он говорит. Skill - это фича их кодинг ассисента Claude Code. Там есть основной агент, с которым ты общаешься, и он может делегировать задачи другим агентам, а может по контексту подгружать куски инструкций себе в контекст. Вот это последнее они называют skills. Я много использую Claude Code, но какого-то серьезного применения этим skills не нашел. Мне лень настраивать эти инструкции - они постоянно устаревают, и у меня мало повторяющихся однотипных задач. Некоторые люди пользуются и говорят, что им помогает. Окей, но не понятно, что тут такого революционного.
Когда уже зп к золоту начнут привязывать? Доллар, юань, российский рубль - все какие-то полумеры.
Сейчас только ленивый не говорит, что LLM - это тупиковая ветка развития. И что забрасывание ресурсами и данными не работает. 2 года назад работало, а потом перестало. Год назад казалось, что chain of thoughts работает, но потом выяснилось, что и это не то. Если послушать свежие интервью разных людей вроде Ильи Суцковера, Андрея Карпаты, Яна Лекуна (это его в Мете пацан из Scale AI не сменил) - все они возвращаются к исследованиям с маленькими бюджетами. У Меты и прочих много денег идет именно на рантайм. Суцковер поднял пару миллиардов и занимается чем-то без шумихи. Чем - не говорит, но он всегда топил за обучение с подкреплением. Карпаты говорит, что нужно как-то из LLM выкинуть знания и оставить только способность к обобщению, которой сейчас в них очень мало. У Гугла много интересных бумаг по долговременной памяти и постоянному обучению. Ну, и Китай не стоит на месте - подхватит, если у США не получится.
Помню, как в офисе нужно было столы поносить с одного этажа на другой и всех нас с нашими инженерными образованиями припахали. До сих пор не могу оправиться
Я так и не понял, что такого неоднозначного было в том релизе. Была огромная истерика на Реддите из-за того, что OpenAI убирает 4o модель. Ту самую, которая имела склонность слишком со всем соглашаться, срываться на эмоции, вести себя как зумер и проваливаться в пучины эзотерики. А из GPT-5 все это выпилили, двинув "характеры" в платные фичи. Оказалось, что есть большой сегмент неплатящих пользователей, для который 4o был другом и даже больше - и все они довольно сильно расстроились. Все сайты подхватили эту истерику и растиражировали как большой провал. И не важно, что GPT-5 в целом норм, цены на апишки упали в полтора раза, кодинг ассистент codex, наконец, догнал и перегнал Claude Code.
Что до Гугла, то в этом месяце их акции пошли вверх, тогда как у всех остальных они упали. И теперь все аналитики постфактум это объясняют. Да, Гугл молодец. Но он так же, как и все, жгет миллиарды на ИИ без видимости окупаемости в ближайшее время. И их успешный релиз уже затмили другие релизы последних двух недель. Что до новых чипов - круто, но пусть сначала выпустят и растиражируют. А то все кругом свои чипы делают, но Nvidia 4090/5090 все равно стоит как двушка в спальном райное.
Помню, как 3 года назад мне было грустно от мысли, что вот он - ИИ из книжек, - но доступ к нему контролируют большие компании. Сегодня есть, а завтра вжух - и подписки, цензура, Сэм Алтман читает мои чаты и подсовывает мне рекламу. И вот спустя какое-то время я могу скачать модель примерно того же уровня и запустить на собственном железе. И железо самое обычное - игровой комп, собранный 6 лет назад. В принципе, даже GPU не обязательно, но с ней намного быстрее.
И да, подписки выгоднее и лучше. Но хорошо иметь альтернативу на всякий случай. И приватность - вещь не лишняя. Пойди спроси у чата жпт, как чай с волшебными грибами заварить или торрент клиент настроить - хорошо, если ФБР не вызовет.
Если речь только про рантайм, то сейчас много маленьких моделей до 30B, которые вполне на уровне GPT-3.5 и запускаются на домашних видюхах за $600-800. Все, что нужно, - это гигов 16 видеопамяти. Упомянутая выше Oss:120b не влезет, но ее младший брат Oss:20b - вполне. Эти маленькие модели хорошо разговаривают, могут работать с инструментами, поддаются расцензуриванию. Вполне неплохо, когда хочется собственный ИИ дома, который не скажет "нет" и не сольет логи.
Догнал в чем? Для использования в простых агентах - да, возможно. Для кодинга - по-моему, не очень. Я перепробовал Cline/Roo Code с большим количеством моделей - все выходило хуже, чем Sonnet. В этом году OpenAI и Google подтянулись и догнали Anthropic со своими codex, gemini-cli, anti-gravity. Там не только модели, но и оптимизация инструментов. Anti-gravity шустро переключается между кодом и браузером по многу раз. Cline уже каким-то старьем ощущается на этом фоне. Claude Code позволяет переключить его на любую модель - возможно комбо с GLM будет давать хорошие результаты. Но я не уверен, что это будет дешевле. Для компании, которая не использует ИИ в своих продуктах, хостить большую модель и скейлить на всех не очень-то просто. Плюс ее нужно интегрировать во все, тогда как приватные компании уже это сделали продают вместе с интеграцией в документы, джиру и пр. Лично мне эта интеграция не нужна, но я вижу, что менеджеры ее очень хотят.
У меня этот Anti-Gravity с Gemini 3 Pro, получив задачу запустить проект, открыть его в браузере, зайти на нужную страницу и что-то там сделать, пошел и переписал аутентификацию. Он не мог залогиниться и просто добавил себе тестового юзера в код. Умно, хитро, но черт побери... Стоило сначала обсудить. Более того, эта штука так шустро работает, что ее сложно вовремя остановить. И нет никакой изоляции энвайронмента. Удобно, пока не сталкиваешься с проблемами.
В другой раз gemini-cli долго не мог починить падающий тест. В какой-то момент он выдал мне абзац текста о том, что он зашел в тупик, исчерпал все идеи, больше не может продолжать мне помогать и вообще глубоко разочарован в собственных способностях. И удалил все тесты.
В целом, тут та же проблема, что и с автопилотами. Ты доверяешь этой штуке принимать решения, и в 99% случаев все ок. Это расслабляет, пока не столкнешься с оставшимися 1% проблем. Было бы логично изолировать ИИ на своей виртуалке. Более того, все сначала так и делали. Но это слишком неудобно для рядовых пользователей. Нельзя сказать "убей процесс на 3000 порту, а то npm start падает". В итоге, все перестали так делать. Все модные ассистенты имеют доступ к системе, и только отсутствие рута останавливает их от полного контроля. Герой статьи на Винде, ему повезло меньше.
Отборный корпоративный кринж. Вот почему у многих команд есть чаты без менеджеров.