Комментарии

Как легко всегда найти виноватых. Какие-то абстрактные политики где-то там. По факту две страны активно идут к закрытию границ. И это не односторонний процесс, каким тут его любят рисовать

5

Если "попадали напрямую в Boyeng или IBM", значит фазы с бодишопом удалось избежать. По рабочей визе сразу после универа в хорошую компанию. Так в принципе и должно быть. Тут есть элемент везения, но не только. IBM не ищет спецом в РБ перспективных студентов - нужно самому на них выходить или через какие-то программы обмена. Это требует некоторой инициативы и знаний.

2

Я уже плохо помню, но те самые сокращения, о которых всех говорят, начались в конце 2022. Когда весь бигтех сначала заморозил найм на полгода, а потом буквально все начали официально объявлять о лэйофах. Да еще по несколько раз за год. Период 2020-2022 - это было просто золотое время. Зарплаты и акции ощутимо выросли и казалось, что удаленка с нами навсегда.

2

Это да. Я хотел получить практику интервью, а получил потерю времени и смешанные чувства. С другой стороны, 140к вполне годятся для survival job, если нормальную работу искать полгода-год. Не знаю, на сколько это так, но удаленку на большие деньги и правда стало очень сложно найти. Не переезжать же в эту вашу Калифорнию

0

Причем тут токсики? Он просто не хочет врать рекрутеру и выдумывать какую-то стандартно-нейтральную причину смену работы, как все обычно делают. Собственно, по вашему комменту понятно, почему все так делают.

6

Ушел с прошлой работы, потому что что не видел возможностей для роста и развития. Потом посмотреть в глаза рекрутеру, прищуриться немного и спросить, а есть ли возможности для развития в их компании.

Можно еще сказать, что прошлая команда была не достаточно diverse. Тут рекрутер поймет, что имеет дело с профессионалом, выдаст речь о том, как сильно они любят diversity, и перестанет дурить голову всякой ерундой.

4

Да и куда дальше? Я — сеньор и лид небольшой команды

Да есть, куда. Во многих компаниях за синьерами идут должности стафов и принципалов. Да и зарплаты на один и тех же позициях в разных компаниях отличаются в разы. Но да - энергия не бесконечная. По-хорошему, герою статьи как-то перезарядиться, прокачать навыки прохождений интервью и еще раз пройтись по рынку. С 5+ годами опыта и американскими компаниями в резюме это должно быть намного проще.

Я пару лет назад собеседовался в Infosys, чтобы потренироваться. Это был какой-то кошмар. Три созвона по часу, просто чтобы еще раз уточнить мои данные и с жутким индуским акцентом напомнить, что я должен все интервью держать в руках водительские права и показывать их в камеру по команде. На четвертом созвоне индийская девушка 30 минут задавала адекватные вопросы по Java и просила написать ряд Фибоначчи. Я их предупреждал, что у меня не будет возможности писать код в этот день, об этом никто не вспомнил, так что я проговаривал код словами. Переодически показывая айди. И напоминая себе, что это тренировка и нужно нужно быть сильным. Еще я был привычен к их акценту, а они к моему - нет. Итого, 30 минут довольно стандартных вопросов, задача уровня easy - и офер на 140 тысяч с удаленкой. Мне кажется, техническое интервью там вообще было для галочки. По сути смотрели только на опыт и общую адекватность. Наверное, им сложно заманивать настоящих сеньеров (в смысле людей с настоящим опытом и правдивым резюме), потому что много кто на рынке может предложить им зарплату больше.

А так вообще интересная статья. Автору удачи - дальше будет легче и лучше. Если AI нас не заменит

6

Ну, или просто дела у OpenAI в последнее время не очень. Их лучшая текстовая модель больше не лидер. Их генератор видео Sora, который полгода назад поверг всех в шок, до сих пор не вышел. При этом вышло уже несколько других похожих продуктов, которые генерят видео не хуже тех, что были на демках Sora. Похожая история с их голосовой моделью. Еще от них ушел их главный ученый. В общем, дело может быть не только в регуляторах

1

С техническими деталями эта история была бы куда красочнее. Что за алгоритм такой, из-за которого все поссорились? Что вы там вообще делали, каков был вклад сошедшихся в поединке мастодонтов? А так, это не про булинг, а про затянувшийся конфликт, который никто не решал. Чем выше роль, тем больше таких конфликтов. Достижения заметнее, бонусы больше, цена ошибки выше - находится много желающих забрать чужие лавры и спихнуть свои проблемы на других. И все меньше желающих помочь решить конфликт. Особенно когда лиды разных команд не могут договориться. У каждого свой прямой менеджер - нужно более высоких управленцев подключать, чтобы порешали. HR ничего не сможет сделать, если нет конкретного харасмента или расизма. В общем, самому за себя стоять нужно. Или уходить.

3

В ответ он сказал, что нужно легче прощаться с людьми, и предложил мне уволить кого-то из команды — просто чтоб отработать этот навык

Просто какой-то Доктор Зло

-1

Ну дык нейросетки не умеют создавать новое, только создавать компиляцию из старого

Ну, это очень спорно. Вот, например, интересное ИИ "творчество" https://www.reddit.com/r/ClaudeAI/comments/1dt73n6/sonnet_35_is_getting_wild_with_these_self/ Автор попросил Claude 3.5 Sonet изобразить себя на JS/HTML/CSS. Оно умеет писать и сразу выполнять код. Клод сначала выдал простой смайлик. После многих итераций с просьбой усложнить и добавить деталей получилось вот это. Я не знаю, можно ли считать это творчеством, но и просто компиляцией это назвать трудно. Особенно учитывая, что Клод можно объяснить, что именно он пытался изобразить.

Вообще, странно ожидать новое от "weather app". Это как попросить написать сюжет хоррора про подростков в заброшенном доме, а потом удивиться, что он похож на тысячи уже существующих хорроров.

0

Да вы как-то переусложняете. Да, было бы хорошо держать "в уме" всю книгу, но можно попробовать обойтись только небольшим куском. Остальное сложить в векторную базу и объяснить ЭйАй, как ей пользоваться. Он будет делать описание будущей картинки по текущему куску книги и ходить за деталями в базу. Это вполне может сработать. Генерилки картинок обычно разрешают загрузить одно или несколько изображений, чтобы брать их за основу. Можно грузить прошлые картинки или заранее сгенерить, например, основных персонажей. Это даст какую-то консистентность. В общем, можно пробовать и без команды ученых.

Ну, и там уже на подходе модели, создающие видео по тексту. Мне кажется, скоро мы увидим много подобных стартапов.

0

Как только меня посетила идея проект и придумался концепт, я сразу же сделал рендеры девайса в 3d

А зачем девайс для чего-то, что полностью софтверное? Почему просто не сделать приложение на телефоны и планшеты?

Про генерацию картинок на лету. У меня есть приложение, которое делает что-то похожее для ресторанных меню. Сфотографировал и чатишься, можешь попросить визуализировать какие-то блюда. Результаты временами шокирующие. Иногда оно (OpenAI Vision) рисует вполне себе фотореалистичные и адекватные вещи. Иногда выдает абстракции, где пармезан парит на фоне галактик. Или доисторических людей, жарящих мамонта на вертеле. И почти никогда не может выдать нужное количество пальцев. Еще, очень трудно уговорить нейронку рисовать только блюда из меню и ничего больше. Но, возможно, если вы нанимаете компанию, специализирующуюся на генерации картинок, у них найдется что-то более надежное.

Как вы собираетесь решать проблему копирайта? Планируете договариваться с авторами книг?

2

Это не я ваши коменты искажаю, а модерация. Они вас выше поцензурили и теперь не понятно. Возможно, там было что-то вроде "талантливые ребята" и расизм действительно для меня норма. Кстати, какая из моих букв на это указывает? Ви значит виндетта в Индии?

0

Ну, то есть, вам насильно дали не пойми кого, но вы не на начальство за это жалуетесь, а на весь индийский род. И лидов в ЕПАМ.

3

Это фразы в пустоту, на которые сейчас, в 2024, некому ответить. Злорадство в тряпочку.

2

Звучит интересно. Наши ML команды всегда смотрят в сторону статистики, всяких алгоритмов с векторами и скорингом. Наверное, это проще объяснять, писать, дебажить

0

Я смотрел разные интервью с людьми из OpenAI - там тоже мало кто верил. Была только теория, что это должно скейлиться, но результатами были удивлены все.

По поводу GPT-3 - его локально запустить сложно, но есть модели меньше, которые догнали его по производительности. Год или два назад кто-то придумал mixture of exprets. Это 8 7B моделей разной специализации и роутер, который выбирает, какие 2 модели будут отвечать. Есть французская компания Mistral - они, наверное, вторые после Meta, кто онпенсорсит большие модели. Их mixtral-8x7B модели на какое-то время наводнили Huggingface, потому что это было лучшее, что можно можно получить от опенсорса, они били Llama2 70B. Мне удавалось запустить это на игровом компе со сносной скоростью работы.

Вообще, сейчас все работают над мультимоделями, которые могут принимать данные в разных форматах (текст, картинки) и превращать их в совместимые токены, которые дальше идут в одну нейронку. То же самое с выходом. Так что термин LLM уже к ним не подходит. Вот очень крутая бумага о том, как GPT-4o превращает картинки в токены: https://www.oranlooney.com/post/gpt-cnn/ Это спекуляции и реверс инжениринг, но мне это скидывал знакомый, который работал в OpenAI. Говорил, что похоже на правду.

1