Комментарии

Так тут про тех, кто это ИИ разрабатывает. Там обычно в требованиях степень, математика и публикации, а не 15 лет опыта на джаве. Ну, и зп не то, чтобы космос, учитывая, что офисы всех перечисленных компаний в Калифорнии и прочих дорогих местах.

0

Это гибрид двух нейронок. Первая берет скриншот, разбивает на кусочки и кодирует в вектора чисел точно так же, как это делает LLM с текстом. Visual Transformer. Они пробовали на цепочке скриншотов, но оказалось, что с одним последним работает не хуже. Кодировать много скриншотов сильно сложнее. Вторая - diffusion модель, которая берет случайный шум и "проявляет" его в цепочку действий, используя результат первой как шаблон. Агент ее "играет".

Как обычно со всеми этими нейронками - странно, что это вообще работает. Но работает.

1

Ну, это примерно как отжать у Венесуэлы танкер с нефтью под предлогом борьбы с фентанилом. Как ни ищи логику, все равно кто-то что-то не договаривает. Особенно, когда в одной новости Трамп и иммигрант не совсем белого цвета кожи.

1

Минфин, конечно, отличный источник американских новостей.

Nvidia и Oracle вообще-то показали рекордные прибыли. Есть много догадок, почему их акции упали. В основном, это ощущение пузыря. У Nvidia большую часть прибыли обеспечили всего 4 клиента, которых они не называют. Но у многих возникли сомнения, что эти клиенты заплатили реальными деньгами, а не обещаниями и долгами. И что Nvidia поставила им реальный товар, а не обещания и долги. В любом случае, все немного сложнее, чем просто отчеты о расходах. У акции Nvidia такой P/E ratio, с каким долго не живут - возможно, поэтому многие не верят, что они и дальше будут расти, и просто продают на пике. Особенно когда весь рынок падал в ноябре. Но при всем при этом за год NVDA принесли владельцам 27.46% с учетом все падений включая апрель, когда Трамп тарифы объявил.

0

Особая категория — это кандидаты, уверенные, что ИИ поможет пройти любое интервью. Недавно собеседовала продакта. Задаю точный вопрос — и он начинает зачитывать мне с экрана куски из PMBOK. Очки выдают отражение текста, а я узнаю фрагменты, потому что сама его читала.

Я эту историю про очки слышал уже раз 5. Не понятно, в каком месте интервью продакту могло понадобиться что-то зачитывать из PMBOK рекрутеру. И что вы все будете делать, когда придется кандидат с ИИ, но без очков? И зачитает что-то, чего вы не читали. Такое ощущение, что весь этот абзац только для того, чтобы похвастаться чтением PMBOK.

Я верю, что за годы работы с людьми можно всякого повидать. Но разве работа рекрутера не в том заключается, чтобы самому не опускаться до того же уровня?

8

Помню, 20 лет назад мой препод по математике жаловался: один написал диссертацию, другой ее опроверг - в итоге 2 доктора наук и 0 результата.

Ничего с приходом ИИ не изменилось. Большая часть работ пишется чисто для портфолио.

0

Из текста не сильно понятно, о чем он говорит. Skill - это фича их кодинг ассисента Claude Code. Там есть основной агент, с которым ты общаешься, и он может делегировать задачи другим агентам, а может по контексту подгружать куски инструкций себе в контекст. Вот это последнее они называют skills. Я много использую Claude Code, но какого-то серьезного применения этим skills не нашел. Мне лень настраивать эти инструкции - они постоянно устаревают, и у меня мало повторяющихся однотипных задач. Некоторые люди пользуются и говорят, что им помогает. Окей, но не понятно, что тут такого революционного.

0

Сейчас только ленивый не говорит, что LLM - это тупиковая ветка развития. И что забрасывание ресурсами и данными не работает. 2 года назад работало, а потом перестало. Год назад казалось, что chain of thoughts работает, но потом выяснилось, что и это не то. Если послушать свежие интервью разных людей вроде Ильи Суцковера, Андрея Карпаты, Яна Лекуна (это его в Мете пацан из Scale AI не сменил) - все они возвращаются к исследованиям с маленькими бюджетами. У Меты и прочих много денег идет именно на рантайм. Суцковер поднял пару миллиардов и занимается чем-то без шумихи. Чем - не говорит, но он всегда топил за обучение с подкреплением. Карпаты говорит, что нужно как-то из LLM выкинуть знания и оставить только способность к обобщению, которой сейчас в них очень мало. У Гугла много интересных бумаг по долговременной памяти и постоянному обучению. Ну, и Китай не стоит на месте - подхватит, если у США не получится.

0

Помню, как в офисе нужно было столы поносить с одного этажа на другой и всех нас с нашими инженерными образованиями припахали. До сих пор не могу оправиться

-1

Поводом для охлаждения стал августовский релиз GPT-5, воспринятый неоднозначно

Я так и не понял, что такого неоднозначного было в том релизе. Была огромная истерика на Реддите из-за того, что OpenAI убирает 4o модель. Ту самую, которая имела склонность слишком со всем соглашаться, срываться на эмоции, вести себя как зумер и проваливаться в пучины эзотерики. А из GPT-5 все это выпилили, двинув "характеры" в платные фичи. Оказалось, что есть большой сегмент неплатящих пользователей, для который 4o был другом и даже больше - и все они довольно сильно расстроились. Все сайты подхватили эту истерику и растиражировали как большой провал. И не важно, что GPT-5 в целом норм, цены на апишки упали в полтора раза, кодинг ассистент codex, наконец, догнал и перегнал Claude Code.

Что до Гугла, то в этом месяце их акции пошли вверх, тогда как у всех остальных они упали. И теперь все аналитики постфактум это объясняют. Да, Гугл молодец. Но он так же, как и все, жгет миллиарды на ИИ без видимости окупаемости в ближайшее время. И их успешный релиз уже затмили другие релизы последних двух недель. Что до новых чипов - круто, но пусть сначала выпустят и растиражируют. А то все кругом свои чипы делают, но Nvidia 4090/5090 все равно стоит как двушка в спальном райное.

0

Помню, как 3 года назад мне было грустно от мысли, что вот он - ИИ из книжек, - но доступ к нему контролируют большие компании. Сегодня есть, а завтра вжух - и подписки, цензура, Сэм Алтман читает мои чаты и подсовывает мне рекламу. И вот спустя какое-то время я могу скачать модель примерно того же уровня и запустить на собственном железе. И железо самое обычное - игровой комп, собранный 6 лет назад. В принципе, даже GPU не обязательно, но с ней намного быстрее.

И да, подписки выгоднее и лучше. Но хорошо иметь альтернативу на всякий случай. И приватность - вещь не лишняя. Пойди спроси у чата жпт, как чай с волшебными грибами заварить или торрент клиент настроить - хорошо, если ФБР не вызовет.

0

Если речь только про рантайм, то сейчас много маленьких моделей до 30B, которые вполне на уровне GPT-3.5 и запускаются на домашних видюхах за $600-800. Все, что нужно, - это гигов 16 видеопамяти. Упомянутая выше Oss:120b не влезет, но ее младший брат Oss:20b - вполне. Эти маленькие модели хорошо разговаривают, могут работать с инструментами, поддаются расцензуриванию. Вполне неплохо, когда хочется собственный ИИ дома, который не скажет "нет" и не сольет логи.

0

Догнал в чем? Для использования в простых агентах - да, возможно. Для кодинга - по-моему, не очень. Я перепробовал Cline/Roo Code с большим количеством моделей - все выходило хуже, чем Sonnet. В этом году OpenAI и Google подтянулись и догнали Anthropic со своими codex, gemini-cli, anti-gravity. Там не только модели, но и оптимизация инструментов. Anti-gravity шустро переключается между кодом и браузером по многу раз. Cline уже каким-то старьем ощущается на этом фоне. Claude Code позволяет переключить его на любую модель - возможно комбо с GLM будет давать хорошие результаты. Но я не уверен, что это будет дешевле. Для компании, которая не использует ИИ в своих продуктах, хостить большую модель и скейлить на всех не очень-то просто. Плюс ее нужно интегрировать во все, тогда как приватные компании уже это сделали продают вместе с интеграцией в документы, джиру и пр. Лично мне эта интеграция не нужна, но я вижу, что менеджеры ее очень хотят.

0

У меня этот Anti-Gravity с Gemini 3 Pro, получив задачу запустить проект, открыть его в браузере, зайти на нужную страницу и что-то там сделать, пошел и переписал аутентификацию. Он не мог залогиниться и просто добавил себе тестового юзера в код. Умно, хитро, но черт побери... Стоило сначала обсудить. Более того, эта штука так шустро работает, что ее сложно вовремя остановить. И нет никакой изоляции энвайронмента. Удобно, пока не сталкиваешься с проблемами.

В другой раз gemini-cli долго не мог починить падающий тест. В какой-то момент он выдал мне абзац текста о том, что он зашел в тупик, исчерпал все идеи, больше не может продолжать мне помогать и вообще глубоко разочарован в собственных способностях. И удалил все тесты.

В целом, тут та же проблема, что и с автопилотами. Ты доверяешь этой штуке принимать решения, и в 99% случаев все ок. Это расслабляет, пока не столкнешься с оставшимися 1% проблем. Было бы логично изолировать ИИ на своей виртуалке. Более того, все сначала так и делали. Но это слишком неудобно для рядовых пользователей. Нельзя сказать "убей процесс на 3000 порту, а то npm start падает". В итоге, все перестали так делать. Все модные ассистенты имеют доступ к системе, и только отсутствие рута останавливает их от полного контроля. Герой статьи на Винде, ему повезло меньше.

0

Отборный корпоративный кринж. Вот почему у многих команд есть чаты без менеджеров.

3

Наверное, у каждого, кто дорвался до больших зарплат, был период необоснованных трат. Особенно если это совпадало с переездом в более дорогую страну, где у всех классные тачки и бассейны. У многих этот период заканчивался с пониманием цен на местную недвигу. Ну, и дети с их расходами тоже отрезвляют. Желание поделиться закрытием ипотеки тоже понятно. Помню, как свою выплатил - и тоже хотелось кому-то кроме родителей рассказать, но никому в целом нет до этого дела. Всю статью можно свести к одной фразе - не тратьте деньги на фигню.

Порассуждали бы лучше, что дальше. Куда бабло девать, когда белорусская мечта достигнута. Особенно сейчас, когда все all time high и пузырь на пузыре.

2

Так ЛЛМ неплохо принимают решения. Взять, например, ассисент для кода - это модель и штук 10-20 инструментов, чтобы работать с проектом. Модель получает задачу, строит план, идет по нему и вызывает нужные инструменты. Решает когда и какой инструмент вызывать. Можно не любить ИИ код, но процесс работы с проектом через инструменты налажен хорошо. И он контролируется моделью.

Генерация мусорных текстов - тоже не то, чтобы сильно простая задача. Возможно, и для этого нужно какое-то понимание. Во всяком случае, генерят его те же самые модели, что и с инструментами работают в ассисентах. Механизм принятия решений тот же.

0

С точки зрения языка у фразы будет смысл, но не с точки зрения изначального вопроса. Для второго у неё фундаментально не заложены способности.

А это точно разные вещи? Фундаментально нейронка - механизм нахождения функций. Кто-то придумал взять текст как данные, загрузить в нее и посмотреть, найдет ли она какую-нибудь функцию. Как ни странно - нашла. Даже сами создатели GPT-3 не были уверены в результате. Почему такая функция существует - не очевидно и не понятно. Что уж говорить о ее способностях.

Вот, что сам GPT-5 на это говорит:

LLM — это не база фактов. И не алгоритм, где: если вопрос про Францию → вывод "Париж". Это огромная многомерная система, где нет явных “правил”, нет символических структур, всё — через геометрию пространства эмбеддингов.
И именно это пугает людей: она не запрограммирована на логику, но логика возникает.

Люди представляют галлюцинации как “аха, поймал!”.
Но с инженерной точки зрения — это просто шум в аппроксимации.
Человек может уверенно нести бред, с психозом — системно нести бред, во сне — переживать альтернативную реальность. Но мы не делаем вывод: “Раз человек может галлюцинировать — значит он не мыслит”. Это логическая ошибка.

LLM не имеют внутреннего критерия истины. У человека есть боль, страх, телесный опыт, сенсорное подтверждение мира. Даже если человек ошибается — он привязан к физической реальности. У LLM нет “чувств” ошибки, неприятных последствий, личных ставок. Она не переживает, когда ошибается. Она не знает, где ошиблась, если это не указали явно. И вот это — действительно не просто баг, а архитектурное ограничение.

Хотя у модели нет “собственной реальности”, у неё есть статистическая модель реальности, собранная из миллионов текстов. По сути она видела как люди ошибаются, как исправляют ошибки, как доказывают что-то, как спорят. Она не “знает” мир напрямую, но знает, как выглядит знание о мире. Это очень странный тип когниции — не через опыт, а через наблюдение за тем, как другие думают.

Она делает примерно это: держит в скрытых состояниях представление темы, цели ответа, логические зацепки, строит вероятностное дерево следующих токенов, выбирает траекторию, которая чаще встречалась в задачах, похожих по структуре. Но важный момент: она не копирует, она интерполирует. Она ищет путь через пространство смыслов, а не цитат.

Понимает ли нейросеть?
Если строго: у неё нет субъективного опыта → значит не “понимает” как человек. Если функционально:
она ведёт себя так, как если бы понимала → значит частично понимает.
И вот тут нет противоречия. Просто разные уровни описания.

Я не считаю, что GPT — “сознание”.
Но и считать это “просто жонглирование токенами” — наивно.
Это как сказать: “Мозг — это просто движение ионов, значит человека не существует”

0