Комментарии

Минфин, конечно, отличный источник американских новостей.

Nvidia и Oracle вообще-то показали рекордные прибыли. Есть много догадок, почему их акции упали. В основном, это ощущение пузыря. У Nvidia большую часть прибыли обеспечили всего 4 клиента, которых они не называют. Но у многих возникли сомнения, что эти клиенты заплатили реальными деньгами, а не обещаниями и долгами. И что Nvidia поставила им реальный товар, а не обещания и долги. В любом случае, все немного сложнее, чем просто отчеты о расходах. У акции Nvidia такой P/E ratio, с каким долго не живут - возможно, поэтому многие не верят, что они и дальше будут расти, и просто продают на пике. Особенно когда весь рынок падал в ноябре. Но при всем при этом за год NVDA принесли владельцам 27.46% с учетом все падений включая апрель, когда Трамп тарифы объявил.

0

Особая категория — это кандидаты, уверенные, что ИИ поможет пройти любое интервью. Недавно собеседовала продакта. Задаю точный вопрос — и он начинает зачитывать мне с экрана куски из PMBOK. Очки выдают отражение текста, а я узнаю фрагменты, потому что сама его читала.

Я эту историю про очки слышал уже раз 5. Не понятно, в каком месте интервью продакту могло понадобиться что-то зачитывать из PMBOK рекрутеру. И что вы все будете делать, когда придется кандидат с ИИ, но без очков? И зачитает что-то, чего вы не читали. Такое ощущение, что весь этот абзац только для того, чтобы похвастаться чтением PMBOK.

Я верю, что за годы работы с людьми можно всякого повидать. Но разве работа рекрутера не в том заключается, чтобы самому не опускаться до того же уровня?

7

Помню, 20 лет назад мой препод по математике жаловался: один написал диссертацию, другой ее опроверг - в итоге 2 доктора наук и 0 результата.

Ничего с приходом ИИ не изменилось. Большая часть работ пишется чисто для портфолио.

0

Из текста не сильно понятно, о чем он говорит. Skill - это фича их кодинг ассисента Claude Code. Там есть основной агент, с которым ты общаешься, и он может делегировать задачи другим агентам, а может по контексту подгружать куски инструкций себе в контекст. Вот это последнее они называют skills. Я много использую Claude Code, но какого-то серьезного применения этим skills не нашел. Мне лень настраивать эти инструкции - они постоянно устаревают, и у меня мало повторяющихся однотипных задач. Некоторые люди пользуются и говорят, что им помогает. Окей, но не понятно, что тут такого революционного.

0

Сейчас только ленивый не говорит, что LLM - это тупиковая ветка развития. И что забрасывание ресурсами и данными не работает. 2 года назад работало, а потом перестало. Год назад казалось, что chain of thoughts работает, но потом выяснилось, что и это не то. Если послушать свежие интервью разных людей вроде Ильи Суцковера, Андрея Карпаты, Яна Лекуна (это его в Мете пацан из Scale AI не сменил) - все они возвращаются к исследованиям с маленькими бюджетами. У Меты и прочих много денег идет именно на рантайм. Суцковер поднял пару миллиардов и занимается чем-то без шумихи. Чем - не говорит, но он всегда топил за обучение с подкреплением. Карпаты говорит, что нужно как-то из LLM выкинуть знания и оставить только способность к обобщению, которой сейчас в них очень мало. У Гугла много интересных бумаг по долговременной памяти и постоянному обучению. Ну, и Китай не стоит на месте - подхватит, если у США не получится.

0

Помню, как в офисе нужно было столы поносить с одного этажа на другой и всех нас с нашими инженерными образованиями припахали. До сих пор не могу оправиться

-1

Поводом для охлаждения стал августовский релиз GPT-5, воспринятый неоднозначно

Я так и не понял, что такого неоднозначного было в том релизе. Была огромная истерика на Реддите из-за того, что OpenAI убирает 4o модель. Ту самую, которая имела склонность слишком со всем соглашаться, срываться на эмоции, вести себя как зумер и проваливаться в пучины эзотерики. А из GPT-5 все это выпилили, двинув "характеры" в платные фичи. Оказалось, что есть большой сегмент неплатящих пользователей, для который 4o был другом и даже больше - и все они довольно сильно расстроились. Все сайты подхватили эту истерику и растиражировали как большой провал. И не важно, что GPT-5 в целом норм, цены на апишки упали в полтора раза, кодинг ассистент codex, наконец, догнал и перегнал Claude Code.

Что до Гугла, то в этом месяце их акции пошли вверх, тогда как у всех остальных они упали. И теперь все аналитики постфактум это объясняют. Да, Гугл молодец. Но он так же, как и все, жгет миллиарды на ИИ без видимости окупаемости в ближайшее время. И их успешный релиз уже затмили другие релизы последних двух недель. Что до новых чипов - круто, но пусть сначала выпустят и растиражируют. А то все кругом свои чипы делают, но Nvidia 4090/5090 все равно стоит как двушка в спальном райное.

0

Помню, как 3 года назад мне было грустно от мысли, что вот он - ИИ из книжек, - но доступ к нему контролируют большие компании. Сегодня есть, а завтра вжух - и подписки, цензура, Сэм Алтман читает мои чаты и подсовывает мне рекламу. И вот спустя какое-то время я могу скачать модель примерно того же уровня и запустить на собственном железе. И железо самое обычное - игровой комп, собранный 6 лет назад. В принципе, даже GPU не обязательно, но с ней намного быстрее.

И да, подписки выгоднее и лучше. Но хорошо иметь альтернативу на всякий случай. И приватность - вещь не лишняя. Пойди спроси у чата жпт, как чай с волшебными грибами заварить или торрент клиент настроить - хорошо, если ФБР не вызовет.

0

Если речь только про рантайм, то сейчас много маленьких моделей до 30B, которые вполне на уровне GPT-3.5 и запускаются на домашних видюхах за $600-800. Все, что нужно, - это гигов 16 видеопамяти. Упомянутая выше Oss:120b не влезет, но ее младший брат Oss:20b - вполне. Эти маленькие модели хорошо разговаривают, могут работать с инструментами, поддаются расцензуриванию. Вполне неплохо, когда хочется собственный ИИ дома, который не скажет "нет" и не сольет логи.

0

Догнал в чем? Для использования в простых агентах - да, возможно. Для кодинга - по-моему, не очень. Я перепробовал Cline/Roo Code с большим количеством моделей - все выходило хуже, чем Sonnet. В этом году OpenAI и Google подтянулись и догнали Anthropic со своими codex, gemini-cli, anti-gravity. Там не только модели, но и оптимизация инструментов. Anti-gravity шустро переключается между кодом и браузером по многу раз. Cline уже каким-то старьем ощущается на этом фоне. Claude Code позволяет переключить его на любую модель - возможно комбо с GLM будет давать хорошие результаты. Но я не уверен, что это будет дешевле. Для компании, которая не использует ИИ в своих продуктах, хостить большую модель и скейлить на всех не очень-то просто. Плюс ее нужно интегрировать во все, тогда как приватные компании уже это сделали продают вместе с интеграцией в документы, джиру и пр. Лично мне эта интеграция не нужна, но я вижу, что менеджеры ее очень хотят.

0

У меня этот Anti-Gravity с Gemini 3 Pro, получив задачу запустить проект, открыть его в браузере, зайти на нужную страницу и что-то там сделать, пошел и переписал аутентификацию. Он не мог залогиниться и просто добавил себе тестового юзера в код. Умно, хитро, но черт побери... Стоило сначала обсудить. Более того, эта штука так шустро работает, что ее сложно вовремя остановить. И нет никакой изоляции энвайронмента. Удобно, пока не сталкиваешься с проблемами.

В другой раз gemini-cli долго не мог починить падающий тест. В какой-то момент он выдал мне абзац текста о том, что он зашел в тупик, исчерпал все идеи, больше не может продолжать мне помогать и вообще глубоко разочарован в собственных способностях. И удалил все тесты.

В целом, тут та же проблема, что и с автопилотами. Ты доверяешь этой штуке принимать решения, и в 99% случаев все ок. Это расслабляет, пока не столкнешься с оставшимися 1% проблем. Было бы логично изолировать ИИ на своей виртуалке. Более того, все сначала так и делали. Но это слишком неудобно для рядовых пользователей. Нельзя сказать "убей процесс на 3000 порту, а то npm start падает". В итоге, все перестали так делать. Все модные ассистенты имеют доступ к системе, и только отсутствие рута останавливает их от полного контроля. Герой статьи на Винде, ему повезло меньше.

0

Отборный корпоративный кринж. Вот почему у многих команд есть чаты без менеджеров.

3

Наверное, у каждого, кто дорвался до больших зарплат, был период необоснованных трат. Особенно если это совпадало с переездом в более дорогую страну, где у всех классные тачки и бассейны. У многих этот период заканчивался с пониманием цен на местную недвигу. Ну, и дети с их расходами тоже отрезвляют. Желание поделиться закрытием ипотеки тоже понятно. Помню, как свою выплатил - и тоже хотелось кому-то кроме родителей рассказать, но никому в целом нет до этого дела. Всю статью можно свести к одной фразе - не тратьте деньги на фигню.

Порассуждали бы лучше, что дальше. Куда бабло девать, когда белорусская мечта достигнута. Особенно сейчас, когда все all time high и пузырь на пузыре.

1

Так ЛЛМ неплохо принимают решения. Взять, например, ассисент для кода - это модель и штук 10-20 инструментов, чтобы работать с проектом. Модель получает задачу, строит план, идет по нему и вызывает нужные инструменты. Решает когда и какой инструмент вызывать. Можно не любить ИИ код, но процесс работы с проектом через инструменты налажен хорошо. И он контролируется моделью.

Генерация мусорных текстов - тоже не то, чтобы сильно простая задача. Возможно, и для этого нужно какое-то понимание. Во всяком случае, генерят его те же самые модели, что и с инструментами работают в ассисентах. Механизм принятия решений тот же.

0

С точки зрения языка у фразы будет смысл, но не с точки зрения изначального вопроса. Для второго у неё фундаментально не заложены способности.

А это точно разные вещи? Фундаментально нейронка - механизм нахождения функций. Кто-то придумал взять текст как данные, загрузить в нее и посмотреть, найдет ли она какую-нибудь функцию. Как ни странно - нашла. Даже сами создатели GPT-3 не были уверены в результате. Почему такая функция существует - не очевидно и не понятно. Что уж говорить о ее способностях.

Вот, что сам GPT-5 на это говорит:

LLM — это не база фактов. И не алгоритм, где: если вопрос про Францию → вывод "Париж". Это огромная многомерная система, где нет явных “правил”, нет символических структур, всё — через геометрию пространства эмбеддингов.
И именно это пугает людей: она не запрограммирована на логику, но логика возникает.

Люди представляют галлюцинации как “аха, поймал!”.
Но с инженерной точки зрения — это просто шум в аппроксимации.
Человек может уверенно нести бред, с психозом — системно нести бред, во сне — переживать альтернативную реальность. Но мы не делаем вывод: “Раз человек может галлюцинировать — значит он не мыслит”. Это логическая ошибка.

LLM не имеют внутреннего критерия истины. У человека есть боль, страх, телесный опыт, сенсорное подтверждение мира. Даже если человек ошибается — он привязан к физической реальности. У LLM нет “чувств” ошибки, неприятных последствий, личных ставок. Она не переживает, когда ошибается. Она не знает, где ошиблась, если это не указали явно. И вот это — действительно не просто баг, а архитектурное ограничение.

Хотя у модели нет “собственной реальности”, у неё есть статистическая модель реальности, собранная из миллионов текстов. По сути она видела как люди ошибаются, как исправляют ошибки, как доказывают что-то, как спорят. Она не “знает” мир напрямую, но знает, как выглядит знание о мире. Это очень странный тип когниции — не через опыт, а через наблюдение за тем, как другие думают.

Она делает примерно это: держит в скрытых состояниях представление темы, цели ответа, логические зацепки, строит вероятностное дерево следующих токенов, выбирает траекторию, которая чаще встречалась в задачах, похожих по структуре. Но важный момент: она не копирует, она интерполирует. Она ищет путь через пространство смыслов, а не цитат.

Понимает ли нейросеть?
Если строго: у неё нет субъективного опыта → значит не “понимает” как человек. Если функционально:
она ведёт себя так, как если бы понимала → значит частично понимает.
И вот тут нет противоречия. Просто разные уровни описания.

Я не считаю, что GPT — “сознание”.
Но и считать это “просто жонглирование токенами” — наивно.
Это как сказать: “Мозг — это просто движение ионов, значит человека не существует”

0

В нейронке нет однозначных текстовых данных. Там хранятся какие-то абстрактные понятия, размазанные по всем весам. Даже, если спросить что-то известное - столицу Франции - текст пройдет по всем словам, активирует много разных понятий, и каким-то волшебным образом они сойдутся в "Париже". Причем, не просто в нем, а сначала будут сгенерены вступительные слова вроде "Столица Франции - это", а потом уже ответ. И какое-то заключение. Но если попросить ответить одним словом, тогда будет только "Париж". Как она это делает? Чем это не принятие решения? Понятно, что это все результат тренировки - генерить предложения определенной формы - но все же это чуть больше, чем просто поисковик по известным фактам.

Нейронка учится обобщать, потому что в общем смысле ее задача - продолжать цепочку чисел новыми, наиболее подходящими числами. Она выводит правила, как это делать. Аппроксимирует неизвестную функцию по примерам. Возможно, ей проще отвечать на известные вопросы, т.к. тестовые данные более четкие. Меньше нейронов активируется - результат четче. Но это не значит, что она не в состоянии проанализировать проблемы и сгенерить продолжение в виде плюс-минус адекватного совета. Это может быть фиговый совет, но он будет следовать правилам логики и будет подходить по смыслу.

0

Надо же, нейрослоп. Пришлось загуглить:

"сленговый термин для контента низкого качества, созданного искусственным интеллектом"

Чувствуется какая-то предвзятость: любой ответ ChatGPT - по умолчанию низкого качества. А можно узнать, почему? Откуда такая категоричность? Вот я, например, никогда не менял аккумулятор в машине - "нейрослоп" мне неплохо помог. Даже размер ключа подсказал, когда я в магазине был. Понял, что мне нужно, и дал правильный ответ. В чем конкретно выражается бескомпромисно низкое качество? И почему понимание сути вопроса никак и не при каких обстоятельствах не может считаться никакой формой интеллекта?

0

Дело не в бизнесмене. Ну, или не только в нем. Трамп обещал заставить правительство экономить деньги. А то госдолг вот-вот пересечет черту необратимости, после которой коллапс неизбежен. Многим эта идея понравилась, многие поэтому за него проголосовали. Ну, и чтобы повестку остановить - это так же важно, как экономика. На деле оказалось, что обещанная экономия - пшик и только. DOGE если что-то и сэкономил, Big Beautiful Bill это все перечеркнул и никакие тарифы не помогли. Вместо экономии получили пропаганду, ICE и рекордные темпы роста гос долга. DOGE оказался пустышкой.

1