Комментарии

Так а где сами шутки?

Но да, ICE сейчас дает всем жару. Шутить про них в ИТ компании в США - это как шутить про рак в онкологическом центре.

0

Китайцы своими решениями в области искусственного интеллекта показали, что математическая модернизация программы, использование математических алгоритмов ускорения снижает потребность в классическом „железе“ в 10 раз. То есть вы получаете тот же результат, имея меньшую мощность. И здесь слово должна сказать математика

Если речь про DeepSeek, то они не с помощью карандаша и тетрадки это показали. Изначально, это была компания, занимающаяся трейдингом. В какой-то момент она начала тратить хорошую часть выручки на ИИ-инфраструктуру и найм спецов. Собрали кластер из нескольких тысяч NVIDIA H800 чипов (30-70k за штуку), собрали крутую команду исследователей, дали время на эти самые исследования. И получили результат. А тут какой-то подход от обратного и ностальгия.

2

Так причем тут капча? Они паспорта хотят. И лица заодно. У Сэма Алтмана есть сторонний старптап по оцифровке сетчатки глаза. Взамен дают логин в эту самую сеть и немного местной крипты. Здорово же - все твои данные как на ладони, все денежные транзакции тоже. Осталось понять, кому в 2026 нужны соц. сети.

0

Большинство народу уже сошлось во мнении, что этот Moltbot - хайп и маркетинг чистой воды. Несколько дней назад целая куча ютуберов, которые обозревают всякие ИИ штуки и новости, одновременно выпустила видео о том, какой прорывной этот Moltbot (тогда еще назывался Clawdbot). Как сильно он изменил их жизни. Все кругом стали обсуждать и разбираться, что в нем такого прорывного. На вид все те же todo-листы, сводки новостей, ответы на письма. Локальность - больше фикция, т.к. большинство людей все равно использует его с апишками. Два дня назад про локальный сетап с доках ни слова не было.

Ну, в общем, там нет ничего такого. Разве что интеграция со всякими чатами из коробки. Если кому-то это нужно и по какой-то причине он стесняется эту интеграцию навайбкодить за вечер.

1

ну какой тут искусственный интеллект? Работает автоматика

Да, это в духе многих комментаторов девбай. Слово "интеллект" никому не нравится - там же просто математика, просто "поисковик", просто "классификатор", электрончики бегут по проводам. Сами подумайте, откуда у машины интеллект? То ли дело - автоматика. Правильно назвать - это уже половина дела. Сразу стало ясно, как оно там все работает.

для серьёзной инновационной трансформации экономики Беларуси нужны специалисты со знаниями на уровне ведущих мировых школ, которые смогут конкурировать с иностранными коллегами и создавать «качественный конкурентный беларусский продукт». Он обозначил это «задачей номер один для системы высшего образования».

Вот казалось бы - чтобы обучить специалистов мирового уровня, нужно иметь учителей мирового уровня. И какие-то достижения мирового уровня. Но нет, зачем это все. Главное - задачу поставить и на прошлое не смотреть. Остальное само придет.

0

Еще пару инцидентов с иммиграционной полицией, и приток совсем остановится. На Blind только это и обсуждается - про H1B уже все забыли.

0

Вижу несколько причин. Во-первых, компании хотят видеть как люди взаимодействуют между собой в офисе. И во-вторых, работа в офисе помогает избежать ситуации, когда сотрудники работают на двух проектах одновременно.

И все? Это все причины? Компания готова тратиться на аренду и обслуживание офиса только ради вот этого? И нет никаких других способов выжать из гребца нужные компании результаты? Не знаю, не знаю...

Есть много других версий. Офисы помогают развивать мелкие бизнесы и поднимают стоимость недвиги вокруг себя - администрациям городов выгодно такое, они могут помогать разными льготами. Ну, и людей проще к себе привязывать - ты вынужден переезжать и подстраивать свою жизнь под этот самый офис. Много раз подумаешь, прежде чем увольняться, продавать жилье и ехать всем табором к другому офису. Да, это просто теории - кто его знает, как там на самом деле. Но совсем не смотреть в эту сторону странно. Вернее, это значит противоречить официальной позиции компании, которая вся про лучшую продуктивность в галдеже опенспейса. Скучно и не интересно получается.

1

В качестве примера он приводил радиологию

У меня товарищ-радиолог подрабатывает в компании, которая создает тренировочные данные для ИИ в его домене. Платят больше, чем на основной работе. По сути, он помогает самого себя автоматизировать. Но это все где-то в будущем, а пока что у него две неплохие работы - ему ок. Но и он, и Хуанг все понимают.

0

Там все гораздо хуже. У меня их прилага начала подвисать месяца два назад. Какое-то время помогало убить в процессах и перезапустить. Потом она перестала убиваться. Потом просто перестала работать - пришлось с плясками и бубном удалить и жить без прилаги. Вчера пришло письмо, что они все починили. Поставил новую версию - зависла на старте, в процессах не убивается. Еще и на рассылку меня подписали автоматом. Дно, в общем.

0

Слово "понимание" в принципе сложно применить к чему-то не живому. Мы все интуитивно "понимаем", что значит "понимать", но с четким определением, которое не привязано к существам с биологическими мозгами, проблемы. Отсюда любая идея понимающего компьютера кажется по умолчанию спорной.

Если забыть на минуту, как и почему работают эти модели, современный ИИ очень реалистично имитирует человеческое понимание. Очень трудно задать чату ЖПТ такой вопрос, о который он споткнется, потому что "не понял", о чем речь. Ну, и я бы поспорил, что принцип работы ЛЛМ ближе к игральному кубику, чем к настоящему пониманию. Но пока не было никаких аргументов, с которыми можно спорить. Ты обозвал автора и "исследователей из США" дураками, просто потому что. Что именно заложено в архитектуре? Ты прямо настолько хорошо понимаешь архитектуру трансформеров и все, что происходит в их latent space? Откуда уверенность, что можно вести диалог и проходить тест Тьюринга, но при этом не понимать? Это как минимум известный парадокс, над которым можно поломать голову, а не спешить с выводами и оскорблениями.

0

Так тут про тех, кто это ИИ разрабатывает. Там обычно в требованиях степень, математика и публикации, а не 15 лет опыта на джаве. Ну, и зп не то, чтобы космос, учитывая, что офисы всех перечисленных компаний в Калифорнии и прочих дорогих местах.

0

Это гибрид двух нейронок. Первая берет скриншот, разбивает на кусочки и кодирует в вектора чисел точно так же, как это делает LLM с текстом. Visual Transformer. Они пробовали на цепочке скриншотов, но оказалось, что с одним последним работает не хуже. Кодировать много скриншотов сильно сложнее. Вторая - diffusion модель, которая берет случайный шум и "проявляет" его в цепочку действий, используя результат первой как шаблон. Агент ее "играет".

Как обычно со всеми этими нейронками - странно, что это вообще работает. Но работает.

1

Ну, это примерно как отжать у Венесуэлы танкер с нефтью под предлогом борьбы с фентанилом. Как ни ищи логику, все равно кто-то что-то не договаривает. Особенно, когда в одной новости Трамп и иммигрант не совсем белого цвета кожи.

1

Минфин, конечно, отличный источник американских новостей.

Nvidia и Oracle вообще-то показали рекордные прибыли. Есть много догадок, почему их акции упали. В основном, это ощущение пузыря. У Nvidia большую часть прибыли обеспечили всего 4 клиента, которых они не называют. Но у многих возникли сомнения, что эти клиенты заплатили реальными деньгами, а не обещаниями и долгами. И что Nvidia поставила им реальный товар, а не обещания и долги. В любом случае, все немного сложнее, чем просто отчеты о расходах. У акции Nvidia такой P/E ratio, с каким долго не живут - возможно, поэтому многие не верят, что они и дальше будут расти, и просто продают на пике. Особенно когда весь рынок падал в ноябре. Но при всем при этом за год NVDA принесли владельцам 27.46% с учетом все падений включая апрель, когда Трамп тарифы объявил.

0

Особая категория — это кандидаты, уверенные, что ИИ поможет пройти любое интервью. Недавно собеседовала продакта. Задаю точный вопрос — и он начинает зачитывать мне с экрана куски из PMBOK. Очки выдают отражение текста, а я узнаю фрагменты, потому что сама его читала.

Я эту историю про очки слышал уже раз 5. Не понятно, в каком месте интервью продакту могло понадобиться что-то зачитывать из PMBOK рекрутеру. И что вы все будете делать, когда придется кандидат с ИИ, но без очков? И зачитает что-то, чего вы не читали. Такое ощущение, что весь этот абзац только для того, чтобы похвастаться чтением PMBOK.

Я верю, что за годы работы с людьми можно всякого повидать. Но разве работа рекрутера не в том заключается, чтобы самому не опускаться до того же уровня?

8

Помню, 20 лет назад мой препод по математике жаловался: один написал диссертацию, другой ее опроверг - в итоге 2 доктора наук и 0 результата.

Ничего с приходом ИИ не изменилось. Большая часть работ пишется чисто для портфолио.

0

Из текста не сильно понятно, о чем он говорит. Skill - это фича их кодинг ассисента Claude Code. Там есть основной агент, с которым ты общаешься, и он может делегировать задачи другим агентам, а может по контексту подгружать куски инструкций себе в контекст. Вот это последнее они называют skills. Я много использую Claude Code, но какого-то серьезного применения этим skills не нашел. Мне лень настраивать эти инструкции - они постоянно устаревают, и у меня мало повторяющихся однотипных задач. Некоторые люди пользуются и говорят, что им помогает. Окей, но не понятно, что тут такого революционного.

0

Сейчас только ленивый не говорит, что LLM - это тупиковая ветка развития. И что забрасывание ресурсами и данными не работает. 2 года назад работало, а потом перестало. Год назад казалось, что chain of thoughts работает, но потом выяснилось, что и это не то. Если послушать свежие интервью разных людей вроде Ильи Суцковера, Андрея Карпаты, Яна Лекуна (это его в Мете пацан из Scale AI не сменил) - все они возвращаются к исследованиям с маленькими бюджетами. У Меты и прочих много денег идет именно на рантайм. Суцковер поднял пару миллиардов и занимается чем-то без шумихи. Чем - не говорит, но он всегда топил за обучение с подкреплением. Карпаты говорит, что нужно как-то из LLM выкинуть знания и оставить только способность к обобщению, которой сейчас в них очень мало. У Гугла много интересных бумаг по долговременной памяти и постоянному обучению. Ну, и Китай не стоит на месте - подхватит, если у США не получится.

0

Помню, как в офисе нужно было столы поносить с одного этажа на другой и всех нас с нашими инженерными образованиями припахали. До сих пор не могу оправиться

-1