Комментарии

Там все гораздо хуже. У меня их прилага начала подвисать месяца два назад. Какое-то время помогало убить в процессах и перезапустить. Потом она перестала убиваться. Потом просто перестала работать - пришлось с плясками и бубном удалить и жить без прилаги. Вчера пришло письмо, что они все починили. Поставил новую версию - зависла на старте, в процессах не убивается. Еще и на рассылку меня подписали автоматом. Дно, в общем.

0

Слово "понимание" в принципе сложно применить к чему-то не живому. Мы все интуитивно "понимаем", что значит "понимать", но с четким определением, которое не привязано к существам с биологическими мозгами, проблемы. Отсюда любая идея понимающего компьютера кажется по умолчанию спорной.

Если забыть на минуту, как и почему работают эти модели, современный ИИ очень реалистично имитирует человеческое понимание. Очень трудно задать чату ЖПТ такой вопрос, о который он споткнется, потому что "не понял", о чем речь. Ну, и я бы поспорил, что принцип работы ЛЛМ ближе к игральному кубику, чем к настоящему пониманию. Но пока не было никаких аргументов, с которыми можно спорить. Ты обозвал автора и "исследователей из США" дураками, просто потому что. Что именно заложено в архитектуре? Ты прямо настолько хорошо понимаешь архитектуру трансформеров и все, что происходит в их latent space? Откуда уверенность, что можно вести диалог и проходить тест Тьюринга, но при этом не понимать? Это как минимум известный парадокс, над которым можно поломать голову, а не спешить с выводами и оскорблениями.

0

Так тут про тех, кто это ИИ разрабатывает. Там обычно в требованиях степень, математика и публикации, а не 15 лет опыта на джаве. Ну, и зп не то, чтобы космос, учитывая, что офисы всех перечисленных компаний в Калифорнии и прочих дорогих местах.

0

Это гибрид двух нейронок. Первая берет скриншот, разбивает на кусочки и кодирует в вектора чисел точно так же, как это делает LLM с текстом. Visual Transformer. Они пробовали на цепочке скриншотов, но оказалось, что с одним последним работает не хуже. Кодировать много скриншотов сильно сложнее. Вторая - diffusion модель, которая берет случайный шум и "проявляет" его в цепочку действий, используя результат первой как шаблон. Агент ее "играет".

Как обычно со всеми этими нейронками - странно, что это вообще работает. Но работает.

1

Ну, это примерно как отжать у Венесуэлы танкер с нефтью под предлогом борьбы с фентанилом. Как ни ищи логику, все равно кто-то что-то не договаривает. Особенно, когда в одной новости Трамп и иммигрант не совсем белого цвета кожи.

1

Минфин, конечно, отличный источник американских новостей.

Nvidia и Oracle вообще-то показали рекордные прибыли. Есть много догадок, почему их акции упали. В основном, это ощущение пузыря. У Nvidia большую часть прибыли обеспечили всего 4 клиента, которых они не называют. Но у многих возникли сомнения, что эти клиенты заплатили реальными деньгами, а не обещаниями и долгами. И что Nvidia поставила им реальный товар, а не обещания и долги. В любом случае, все немного сложнее, чем просто отчеты о расходах. У акции Nvidia такой P/E ratio, с каким долго не живут - возможно, поэтому многие не верят, что они и дальше будут расти, и просто продают на пике. Особенно когда весь рынок падал в ноябре. Но при всем при этом за год NVDA принесли владельцам 27.46% с учетом все падений включая апрель, когда Трамп тарифы объявил.

0

Особая категория — это кандидаты, уверенные, что ИИ поможет пройти любое интервью. Недавно собеседовала продакта. Задаю точный вопрос — и он начинает зачитывать мне с экрана куски из PMBOK. Очки выдают отражение текста, а я узнаю фрагменты, потому что сама его читала.

Я эту историю про очки слышал уже раз 5. Не понятно, в каком месте интервью продакту могло понадобиться что-то зачитывать из PMBOK рекрутеру. И что вы все будете делать, когда придется кандидат с ИИ, но без очков? И зачитает что-то, чего вы не читали. Такое ощущение, что весь этот абзац только для того, чтобы похвастаться чтением PMBOK.

Я верю, что за годы работы с людьми можно всякого повидать. Но разве работа рекрутера не в том заключается, чтобы самому не опускаться до того же уровня?

8

Помню, 20 лет назад мой препод по математике жаловался: один написал диссертацию, другой ее опроверг - в итоге 2 доктора наук и 0 результата.

Ничего с приходом ИИ не изменилось. Большая часть работ пишется чисто для портфолио.

0

Из текста не сильно понятно, о чем он говорит. Skill - это фича их кодинг ассисента Claude Code. Там есть основной агент, с которым ты общаешься, и он может делегировать задачи другим агентам, а может по контексту подгружать куски инструкций себе в контекст. Вот это последнее они называют skills. Я много использую Claude Code, но какого-то серьезного применения этим skills не нашел. Мне лень настраивать эти инструкции - они постоянно устаревают, и у меня мало повторяющихся однотипных задач. Некоторые люди пользуются и говорят, что им помогает. Окей, но не понятно, что тут такого революционного.

0

Сейчас только ленивый не говорит, что LLM - это тупиковая ветка развития. И что забрасывание ресурсами и данными не работает. 2 года назад работало, а потом перестало. Год назад казалось, что chain of thoughts работает, но потом выяснилось, что и это не то. Если послушать свежие интервью разных людей вроде Ильи Суцковера, Андрея Карпаты, Яна Лекуна (это его в Мете пацан из Scale AI не сменил) - все они возвращаются к исследованиям с маленькими бюджетами. У Меты и прочих много денег идет именно на рантайм. Суцковер поднял пару миллиардов и занимается чем-то без шумихи. Чем - не говорит, но он всегда топил за обучение с подкреплением. Карпаты говорит, что нужно как-то из LLM выкинуть знания и оставить только способность к обобщению, которой сейчас в них очень мало. У Гугла много интересных бумаг по долговременной памяти и постоянному обучению. Ну, и Китай не стоит на месте - подхватит, если у США не получится.

0

Помню, как в офисе нужно было столы поносить с одного этажа на другой и всех нас с нашими инженерными образованиями припахали. До сих пор не могу оправиться

-1

Поводом для охлаждения стал августовский релиз GPT-5, воспринятый неоднозначно

Я так и не понял, что такого неоднозначного было в том релизе. Была огромная истерика на Реддите из-за того, что OpenAI убирает 4o модель. Ту самую, которая имела склонность слишком со всем соглашаться, срываться на эмоции, вести себя как зумер и проваливаться в пучины эзотерики. А из GPT-5 все это выпилили, двинув "характеры" в платные фичи. Оказалось, что есть большой сегмент неплатящих пользователей, для который 4o был другом и даже больше - и все они довольно сильно расстроились. Все сайты подхватили эту истерику и растиражировали как большой провал. И не важно, что GPT-5 в целом норм, цены на апишки упали в полтора раза, кодинг ассистент codex, наконец, догнал и перегнал Claude Code.

Что до Гугла, то в этом месяце их акции пошли вверх, тогда как у всех остальных они упали. И теперь все аналитики постфактум это объясняют. Да, Гугл молодец. Но он так же, как и все, жгет миллиарды на ИИ без видимости окупаемости в ближайшее время. И их успешный релиз уже затмили другие релизы последних двух недель. Что до новых чипов - круто, но пусть сначала выпустят и растиражируют. А то все кругом свои чипы делают, но Nvidia 4090/5090 все равно стоит как двушка в спальном райное.

0

Помню, как 3 года назад мне было грустно от мысли, что вот он - ИИ из книжек, - но доступ к нему контролируют большие компании. Сегодня есть, а завтра вжух - и подписки, цензура, Сэм Алтман читает мои чаты и подсовывает мне рекламу. И вот спустя какое-то время я могу скачать модель примерно того же уровня и запустить на собственном железе. И железо самое обычное - игровой комп, собранный 6 лет назад. В принципе, даже GPU не обязательно, но с ней намного быстрее.

И да, подписки выгоднее и лучше. Но хорошо иметь альтернативу на всякий случай. И приватность - вещь не лишняя. Пойди спроси у чата жпт, как чай с волшебными грибами заварить или торрент клиент настроить - хорошо, если ФБР не вызовет.

0

Если речь только про рантайм, то сейчас много маленьких моделей до 30B, которые вполне на уровне GPT-3.5 и запускаются на домашних видюхах за $600-800. Все, что нужно, - это гигов 16 видеопамяти. Упомянутая выше Oss:120b не влезет, но ее младший брат Oss:20b - вполне. Эти маленькие модели хорошо разговаривают, могут работать с инструментами, поддаются расцензуриванию. Вполне неплохо, когда хочется собственный ИИ дома, который не скажет "нет" и не сольет логи.

0

Догнал в чем? Для использования в простых агентах - да, возможно. Для кодинга - по-моему, не очень. Я перепробовал Cline/Roo Code с большим количеством моделей - все выходило хуже, чем Sonnet. В этом году OpenAI и Google подтянулись и догнали Anthropic со своими codex, gemini-cli, anti-gravity. Там не только модели, но и оптимизация инструментов. Anti-gravity шустро переключается между кодом и браузером по многу раз. Cline уже каким-то старьем ощущается на этом фоне. Claude Code позволяет переключить его на любую модель - возможно комбо с GLM будет давать хорошие результаты. Но я не уверен, что это будет дешевле. Для компании, которая не использует ИИ в своих продуктах, хостить большую модель и скейлить на всех не очень-то просто. Плюс ее нужно интегрировать во все, тогда как приватные компании уже это сделали продают вместе с интеграцией в документы, джиру и пр. Лично мне эта интеграция не нужна, но я вижу, что менеджеры ее очень хотят.

0

У меня этот Anti-Gravity с Gemini 3 Pro, получив задачу запустить проект, открыть его в браузере, зайти на нужную страницу и что-то там сделать, пошел и переписал аутентификацию. Он не мог залогиниться и просто добавил себе тестового юзера в код. Умно, хитро, но черт побери... Стоило сначала обсудить. Более того, эта штука так шустро работает, что ее сложно вовремя остановить. И нет никакой изоляции энвайронмента. Удобно, пока не сталкиваешься с проблемами.

В другой раз gemini-cli долго не мог починить падающий тест. В какой-то момент он выдал мне абзац текста о том, что он зашел в тупик, исчерпал все идеи, больше не может продолжать мне помогать и вообще глубоко разочарован в собственных способностях. И удалил все тесты.

В целом, тут та же проблема, что и с автопилотами. Ты доверяешь этой штуке принимать решения, и в 99% случаев все ок. Это расслабляет, пока не столкнешься с оставшимися 1% проблем. Было бы логично изолировать ИИ на своей виртуалке. Более того, все сначала так и делали. Но это слишком неудобно для рядовых пользователей. Нельзя сказать "убей процесс на 3000 порту, а то npm start падает". В итоге, все перестали так делать. Все модные ассистенты имеют доступ к системе, и только отсутствие рута останавливает их от полного контроля. Герой статьи на Винде, ему повезло меньше.

0

Отборный корпоративный кринж. Вот почему у многих команд есть чаты без менеджеров.

3

Наверное, у каждого, кто дорвался до больших зарплат, был период необоснованных трат. Особенно если это совпадало с переездом в более дорогую страну, где у всех классные тачки и бассейны. У многих этот период заканчивался с пониманием цен на местную недвигу. Ну, и дети с их расходами тоже отрезвляют. Желание поделиться закрытием ипотеки тоже понятно. Помню, как свою выплатил - и тоже хотелось кому-то кроме родителей рассказать, но никому в целом нет до этого дела. Всю статью можно свести к одной фразе - не тратьте деньги на фигню.

Порассуждали бы лучше, что дальше. Куда бабло девать, когда белорусская мечта достигнута. Особенно сейчас, когда все all time high и пузырь на пузыре.

2

Так ЛЛМ неплохо принимают решения. Взять, например, ассисент для кода - это модель и штук 10-20 инструментов, чтобы работать с проектом. Модель получает задачу, строит план, идет по нему и вызывает нужные инструменты. Решает когда и какой инструмент вызывать. Можно не любить ИИ код, но процесс работы с проектом через инструменты налажен хорошо. И он контролируется моделью.

Генерация мусорных текстов - тоже не то, чтобы сильно простая задача. Возможно, и для этого нужно какое-то понимание. Во всяком случае, генерят его те же самые модели, что и с инструментами работают в ассисентах. Механизм принятия решений тот же.

0