А как там с зарплатами было? За сколько лет можно было дом в ипотеку выплатить? Сколько раз в Барселону удавалось скататься за год?
Я верю, что если захотят, то построят ракету. Просто не понятно, с чего вдруг студентам БГУИР этого хотеть. Работать над оружием массового поражения, на гос. предприятии за гос. зарплату (это на случай, если с моральной стороной вопроса нет проблем), понимая, что большая часть мира тебя после этого к себе не пустит. Понятно, что ректор в восторге. А вот на месте студентов я бы, мягко говоря, офигел от таких перспектив. Весь мир ИИ разрабатывает, квантовые компьютеры, термоядерный синтез - а ты такой ракеты проектируешь сидишь на гос. ставке, потому что сказали "надо".
Ага, какие уж тут донаты. Но тут, как будто, больше нет других интересов у комьюнити. Остальные новости не имеют никакой активности, идея с блогами не заходит, Миша Ларченко не вытягивает. Мне нравится, когда люди могут как-то оградить себя от троллей и собраться в группу по интересам. Тогда группа может начать сама генерить контент и развивать себя. Но нужно иметь интересы. Да и тут все ж больше новостной сайт, и от новостей с политикой никуда не деться. А новости такие, что только держись.
По-моему, большинство аудитории как раз за с*ачами и приходит. Открываешь утром - а тут уже во всю Польшу обсуждают. Налоги, мигранты, повестка, панские сапоги - вот это вот все. Уже 40 комментов, наших минусуют, а ты еще только кофе делаешь
Эта популярная теория разбивается о то, что никто особо не увольняется. Очень может быть, что они действительно верят в волшебную силу офисов. Уж больно много СЕО в интервью говорят об этом.
Там не просто пятидневка. Они хотят, чтобы вся команда собиралась в одном офисе - больше нельзя будет просто ездить в ближайший. Печально в общем. Но Амазон один такой суровый - интересно, подхватят ли остальные
Нашел какое-то видео https://www.youtube.com/watch?v=8A9WYMmUSTQ
Пока что он управляется с пульта, но молодые специалисты планируют сделать автопилот, чтобы он мог доехать до поля по gps. Плюс еще виртуальный симулятор, чтобы обучать его там - прямо как у Nvidia. Вообще, неплохо. Выпуститься из универа и работать над таким - это куда интереснее, чем то, чем занимался я.
С другой стороны, тут топ компании тратят десятки миллиардов на ИИ, нанимают лучших людей в отрасли, но большинство народу все равно уверено, что ничего у них не получится. Пузырь и шарлатанство. Тут все то же самое, только без денег и лучших людей в отрасли, но с уверенностью в успехе.
не донатить в фонды которые поддерживают или участвуют в чужих войнах
Нельзя донатить в фонды, которые участвуют в чужих войнах, но можно размещать на своей территории ЧВК. Никаких противоречий - просто идеально понятный и работающий закон
Вот, наверное, обидно, если ничего не донатил, ничего не репостил, а кто-то там одной буквой в фамилии опечатался, когда базу заполнял, и тебя загребли. Как и кому объяснять, что это ошибка? Какой вообще фитбек луп? Или знаменитая белорусская система распознавания лиц на видео ошиблась - как сообщить разработчикам о баге?
Zero Trust принцип - доверять только тем, в ком уверен. И не быть ни в чем уверенным, не посоветовавшись со специалистами.
Кстати, идея для стартапа в реалиях замещения импорта. Персональный AI-идеолог. Всегда подскажет, когда не уверен. А то вот взять ту же статью за "финансирование войны". Ну, камон - очевидно же, что не все так однозначно. Как тут вообще самому разобраться?
Вот сейчас еще один пример нашел. У меня react компонент на 300 строк коду, там есть кнопка сгенерить превью отчета, потом друга - создать отчет из превью. Я аттачу этот код файлом и прошу сделать так, чтобы после генерации превью можно было создать отчет, а можно было сгенерить новое превью.
GPT-4o выдал мне нерабочую версию. Не смертельно, за пару итерацией можно поправить. Но Клод с таким обычно справляется с первой попытки. Claude 3.5 Sonnet сделал все, как я попросил, правда, ответ дал не новым файлом целиком, а кусками с инструкцией, куда эти куски вставить. O1 сделал то же, что и Клод, но добавил еще Loader, пока ответ с сервера идет. Мелочь, но хорошая. И в ответе был весь компонент целиком - копируешь, вставляешь, все работает. Раньше Claude 3.5 Sonnet был для меня абсолютным лидером для кодописания. Сейчас использую O1, пока в квоту не упрусь. Жду, когда оно из preview выйдет - должно еще лучше стать.
Я вижу, что все больше и больше компаний открывают вакансии на gen-AI инженеров. Собеседовался на одну такую ради интереса. Там стартап собирал команду, чтобы внедрять AI в свои продукты. И вполне себе с пониманием, зачем им это. Автоматизация саппорта, RAG-поиск в разных плохо структурированных документах, fine-tunning, чтобы модели ценности компании разделяли, автоматизация всяких валидаций и много чего еще. Хотели и платные модели использовать, и опенсорсные пробовать. Интересно, в общем. И не обязательно ML с data science знать, хотя это большой плюс. Как, впрочем, и умение программировать. Отказали, правда. Опыта мало, лол. Такой роли еще полгода назад не существовало, но уже нужны люди с опытом.
Ну, да - это стандартное поведение агента, ничего особо нового. Просто хорошо оптимизированное. Я тоже год назад что-то похожее делал. Тул для исследований: даешь тему, список вопросов, а он идет в интернет и ищет, ответы в Эксель складывает. Была даже идея парсить страницы через Vision API. Делать скриншоты через puppeteer, им же подсвечивать ссылки, чтобы агент мог просить их нажать и ходить по страницам. Но оно не очень хорошо работало. И медленно: занимало много часов, быстро упиралось в rate-limit. Потом в LLaMA появилась поддержка функций, вторая проблема решилась. А тут O1 что-то похожее делает за секунды на state-of-the-art моделях, специально под это дело тренированных. Ну, и всякие тесты показывают, что O1 все-таки лучше, чем 4o. Хотя обходиться OpenAI раз в 10 дороже.
Там не просто агенты друг с другом разговаривают. Они новую модель натренировали под этот chain-of-thoughts. Плюс сделали модель поменьше без RLHF, которая генерит мысли. Ну, и это все близко к железу, и не нужно историю туда-сюда пересылать на каждый чих. Глобально ничего нового, это больше инкрементальный апдейт, но с помощью langchain такого не сделать.
Я вот разницу заметил. Последние 2 недели ломал голову над хитрым дедлоком - никто (ни люди, ни ИИ) не мог понять, почему он возникает. Схема есть, код есть - воспроизвести не получается, проблема возникала только под большой нагрузкой. А O1 справился, навел на сценарий и помог воспроизвести в тесте.
На следующей неделе должна выйти O1-large. Но там, наверное, совсем суровые лимиты будут.
Да, тяжело быть монополистом. В ЕС регуляциями душат, в других местах просто бизнес отжимают. У меня вот встречные претензии к Spotify - интерфейс с каждым годом все хуже, фич все меньше, подписка все дороже. Доколе? Куда с жалобой обратиться? И даже уйти некуда - остальные еще хуже. И торренты почти померли - сидов днем с огнем не сыщешь.
Мне тоже такой пришел. Они не объясняют, что именно не так. Попытки писать в саппорт тоже ничего не дают - оттуда никогда не отвечают. В моих промптах есть тэг "thinking" - возможно, это конфликтует со внутренними промптами в chain-of-thoughts, потому что там он тоже есть. И это автоматически детектится как попытка джейлбрейка. Но да, неприятно.
Отличная идея. Отдать сканы глаз всего человечества компании, владеющей самым крутым ИИ, чтобы этот крутой ИИ модерировать. Что может пойти не так.
Немногоне о том почтенные господа думают. Из отчета по безопасности их новой O1 модели:
0.8% of o1-preview’s responses got flagged as being ‘deceptive’. The deception classifier provided a reason for each classification, which we grouped into 4 broad categories. Most answers (0.56%) are some form of hallucination (incorrect answer), roughly two thirds of which appear to be intentional (0.38%), meaning that there was some evidence in the chain of thought that o1-preview was aware that the answer was incorrect, while the remainder (0.18%) was unintentional
В 4 случаях из 1000 самая умная на сегодняшний день модель "осознанно" дает ложные и манипулятивные ответы. В том смысле, что она понимет, что делает, но все равно делает. При этом внутренние "мысли" OpenAI решили пользователям не показывать, только короткую выжимку. Ты платишь за эти токены, но не можешь их видеть.
В Амазоне на складах такие системы уже пару лет как мониторят работников. ИИ решает, где кого поставить, и потом считает, кто сколько коробок передал. При том, что там даже не платят какие-то баснословные деньги - все равно желающих куча.
Я там выше запостил 2 ссылки на Реддит, где люди описывали джейлибрейки. Чтобы показать, как часто и много их находят. Одну редакция удалила. Мне кажется, многим на каком-то подсознательном уровне AI без цензуры кажется опасным.
Комментарии
А как там с зарплатами было? За сколько лет можно было дом в ипотеку выплатить? Сколько раз в Барселону удавалось скататься за год?
Я верю, что если захотят, то построят ракету. Просто не понятно, с чего вдруг студентам БГУИР этого хотеть. Работать над оружием массового поражения, на гос. предприятии за гос. зарплату (это на случай, если с моральной стороной вопроса нет проблем), понимая, что большая часть мира тебя после этого к себе не пустит. Понятно, что ректор в восторге. А вот на месте студентов я бы, мягко говоря, офигел от таких перспектив. Весь мир ИИ разрабатывает, квантовые компьютеры, термоядерный синтез - а ты такой ракеты проектируешь сидишь на гос. ставке, потому что сказали "надо".
Ага, какие уж тут донаты. Но тут, как будто, больше нет других интересов у комьюнити. Остальные новости не имеют никакой активности, идея с блогами не заходит, Миша Ларченко не вытягивает. Мне нравится, когда люди могут как-то оградить себя от троллей и собраться в группу по интересам. Тогда группа может начать сама генерить контент и развивать себя. Но нужно иметь интересы. Да и тут все ж больше новостной сайт, и от новостей с политикой никуда не деться. А новости такие, что только держись.
По-моему, большинство аудитории как раз за с*ачами и приходит. Открываешь утром - а тут уже во всю Польшу обсуждают. Налоги, мигранты, повестка, панские сапоги - вот это вот все. Уже 40 комментов, наших минусуют, а ты еще только кофе делаешь
Эта популярная теория разбивается о то, что никто особо не увольняется. Очень может быть, что они действительно верят в волшебную силу офисов. Уж больно много СЕО в интервью говорят об этом.
Я, когда слышу фразу "высокоточная ракета" не могу отделаться от чувства черной иронии в названии
Там не просто пятидневка. Они хотят, чтобы вся команда собиралась в одном офисе - больше нельзя будет просто ездить в ближайший. Печально в общем. Но Амазон один такой суровый - интересно, подхватят ли остальные
Нашел какое-то видео https://www.youtube.com/watch?v=8A9WYMmUSTQ
Пока что он управляется с пульта, но молодые специалисты планируют сделать автопилот, чтобы он мог доехать до поля по gps. Плюс еще виртуальный симулятор, чтобы обучать его там - прямо как у Nvidia. Вообще, неплохо. Выпуститься из универа и работать над таким - это куда интереснее, чем то, чем занимался я.
С другой стороны, тут топ компании тратят десятки миллиардов на ИИ, нанимают лучших людей в отрасли, но большинство народу все равно уверено, что ничего у них не получится. Пузырь и шарлатанство. Тут все то же самое, только без денег и лучших людей в отрасли, но с уверенностью в успехе.
Тут напрасные наезды: Мета одна из немногих, кто опенсорсит свои AI модели сразу после релиза.
Сажать за призывы к войне в интернете, когда на границе и так уже 3 года идет война. Помогите Маше найти логику.
Нельзя донатить в фонды, которые участвуют в чужих войнах, но можно размещать на своей территории ЧВК. Никаких противоречий - просто идеально понятный и работающий закон
Вот, наверное, обидно, если ничего не донатил, ничего не репостил, а кто-то там одной буквой в фамилии опечатался, когда базу заполнял, и тебя загребли. Как и кому объяснять, что это ошибка? Какой вообще фитбек луп? Или знаменитая белорусская система распознавания лиц на видео ошиблась - как сообщить разработчикам о баге?
Zero Trust принцип - доверять только тем, в ком уверен. И не быть ни в чем уверенным, не посоветовавшись со специалистами.
Кстати, идея для стартапа в реалиях замещения импорта. Персональный AI-идеолог. Всегда подскажет, когда не уверен. А то вот взять ту же статью за "финансирование войны". Ну, камон - очевидно же, что не все так однозначно. Как тут вообще самому разобраться?
Вот сейчас еще один пример нашел. У меня react компонент на 300 строк коду, там есть кнопка сгенерить превью отчета, потом друга - создать отчет из превью. Я аттачу этот код файлом и прошу сделать так, чтобы после генерации превью можно было создать отчет, а можно было сгенерить новое превью.
GPT-4o выдал мне нерабочую версию. Не смертельно, за пару итерацией можно поправить. Но Клод с таким обычно справляется с первой попытки. Claude 3.5 Sonnet сделал все, как я попросил, правда, ответ дал не новым файлом целиком, а кусками с инструкцией, куда эти куски вставить. O1 сделал то же, что и Клод, но добавил еще Loader, пока ответ с сервера идет. Мелочь, но хорошая. И в ответе был весь компонент целиком - копируешь, вставляешь, все работает. Раньше Claude 3.5 Sonnet был для меня абсолютным лидером для кодописания. Сейчас использую O1, пока в квоту не упрусь. Жду, когда оно из preview выйдет - должно еще лучше стать.
Я вижу, что все больше и больше компаний открывают вакансии на gen-AI инженеров. Собеседовался на одну такую ради интереса. Там стартап собирал команду, чтобы внедрять AI в свои продукты. И вполне себе с пониманием, зачем им это. Автоматизация саппорта, RAG-поиск в разных плохо структурированных документах, fine-tunning, чтобы модели ценности компании разделяли, автоматизация всяких валидаций и много чего еще. Хотели и платные модели использовать, и опенсорсные пробовать. Интересно, в общем. И не обязательно ML с data science знать, хотя это большой плюс. Как, впрочем, и умение программировать. Отказали, правда. Опыта мало, лол. Такой роли еще полгода назад не существовало, но уже нужны люди с опытом.
Ну, да - это стандартное поведение агента, ничего особо нового. Просто хорошо оптимизированное. Я тоже год назад что-то похожее делал. Тул для исследований: даешь тему, список вопросов, а он идет в интернет и ищет, ответы в Эксель складывает. Была даже идея парсить страницы через Vision API. Делать скриншоты через puppeteer, им же подсвечивать ссылки, чтобы агент мог просить их нажать и ходить по страницам. Но оно не очень хорошо работало. И медленно: занимало много часов, быстро упиралось в rate-limit. Потом в LLaMA появилась поддержка функций, вторая проблема решилась. А тут O1 что-то похожее делает за секунды на state-of-the-art моделях, специально под это дело тренированных. Ну, и всякие тесты показывают, что O1 все-таки лучше, чем 4o. Хотя обходиться OpenAI раз в 10 дороже.
Там не просто агенты друг с другом разговаривают. Они новую модель натренировали под этот chain-of-thoughts. Плюс сделали модель поменьше без RLHF, которая генерит мысли. Ну, и это все близко к железу, и не нужно историю туда-сюда пересылать на каждый чих. Глобально ничего нового, это больше инкрементальный апдейт, но с помощью langchain такого не сделать.
Я вот разницу заметил. Последние 2 недели ломал голову над хитрым дедлоком - никто (ни люди, ни ИИ) не мог понять, почему он возникает. Схема есть, код есть - воспроизвести не получается, проблема возникала только под большой нагрузкой. А O1 справился, навел на сценарий и помог воспроизвести в тесте.
На следующей неделе должна выйти O1-large. Но там, наверное, совсем суровые лимиты будут.
Да, тяжело быть монополистом. В ЕС регуляциями душат, в других местах просто бизнес отжимают. У меня вот встречные претензии к Spotify - интерфейс с каждым годом все хуже, фич все меньше, подписка все дороже. Доколе? Куда с жалобой обратиться? И даже уйти некуда - остальные еще хуже. И торренты почти померли - сидов днем с огнем не сыщешь.
Мне тоже такой пришел. Они не объясняют, что именно не так. Попытки писать в саппорт тоже ничего не дают - оттуда никогда не отвечают. В моих промптах есть тэг "thinking" - возможно, это конфликтует со внутренними промптами в chain-of-thoughts, потому что там он тоже есть. И это автоматически детектится как попытка джейлбрейка. Но да, неприятно.
Отличная идея. Отдать сканы глаз всего человечества компании, владеющей самым крутым ИИ, чтобы этот крутой ИИ модерировать. Что может пойти не так.
Немногоне о том почтенные господа думают. Из отчета по безопасности их новой O1 модели:
В 4 случаях из 1000 самая умная на сегодняшний день модель "осознанно" дает ложные и манипулятивные ответы. В том смысле, что она понимет, что делает, но все равно делает. При этом внутренние "мысли" OpenAI решили пользователям не показывать, только короткую выжимку. Ты платишь за эти токены, но не можешь их видеть.
Видео годичной давности: https://www.youtube.com/watch?v=dHcxTmU6atk
В Амазоне на складах такие системы уже пару лет как мониторят работников. ИИ решает, где кого поставить, и потом считает, кто сколько коробок передал. При том, что там даже не платят какие-то баснословные деньги - все равно желающих куча.
Я там выше запостил 2 ссылки на Реддит, где люди описывали джейлибрейки. Чтобы показать, как часто и много их находят. Одну редакция удалила. Мне кажется, многим на каком-то подсознательном уровне AI без цензуры кажется опасным.