Комментарии

Впрочем, на счет вероятностей я не прав - там в конце есть фаза выборки токена из вектора. До нее процесс полностью детерминированный, в обучении вероятности тоже не участвуют. LLM не вероятностная модель. Это модель, в которой хранятся свойства, понятия, связи между ними, закодированные в числа. Каждый нейрон представляет собой такое свойство (вернее много свойств сразу). Работа с сетью - не поиск, а прогон входной матрицы через все ее свойства слой за слоем. Какие-то уходят в ноль, какие-то дают растущие значения - в конце все сходится в один вектор. Из него не обязательно выбирать один токен - весь вектор содержит полезную информацию. Но нам для интерпретации нужно что-то выбрать - только тут в игру вступают вероятности.

0

Просто у меня есть практика, а у вас нет. И азов у вас нет, потому что нигде в нейронке нету вероятностей. Вообще нигде, ни одной формулы. Аналогия с поисковиком хорошая для детей девятого класса, но никого поиска там тоже нет. Вы и сами не разбираетесь, и другим мешаете. Впрочем, я вижу, что другие не против.

Что вы хотите, чтобы я показал? Проект, продукт? Как вы поймете, что они написаны ИИ? ИИ код никак не отличается от человеческого (разве что коментов больше) - нужно видеть процесс. Если в какой-то гитхаб репе будет написано, что 100% сгенерено ИИ, вы поверите? Идите на ютуб и ищите "roocode project showcase". Что-нибудь вроде этого https://www.youtube.com/watch?v=sOpryi5N5WA&ab_channel=MichaelFricker или этого https://www.youtube.com/watch?v=vooolVLItTQ&ab_channel=GosuCoder

0

Засунуть голову в песок и говорить, что оттуда плохо видно.

Возможно, если бы вы могли бросить в меня парочкой терминов, этот разговор имел бы больше смысла. Я перечислил названия моделей, клаудов, где они хостятся, и самые популярные агенты для кода. Если для вас это тарабарщина, ну о чем тогда речь? Вы ничем этим не пользовались, но уверенно спорите о состоянии технологии.

0

Я вам на это уже отвечал, но вы не хотите со мной разговаривать и зачем-то репостите одно и то же из темы в тему. Держите плюс, и разойдемся на этом

0

Вы привели пример маркетинговой сатьи

Эта статья - выжимка двух научных публикаций. Которые продолжают серию других публикаций. Там нет никакой магии, они подробно описали все, что сделали - любой может повторить. Но ок, маркетинг, так маркетинг.

Почему они же они не показали пример как их система пишет код который можно применять в продакшене?)

Да показали, вы просто не интересуетесь и не видите. Их модели доступны через API и в AWS Bedrock. Дальше уже дело техники, бюджета и желания - настроить агентов и работать с ними. Их уже довольно много, есть свой и у Антропик - Claude Code называется. Но мне он не нравится, я использую опенсорсные Roo Code и Aider в паре с Claude Sonnet 3.5/3.7 на AWS. Есть у нас и OpenAI модели в Azure, и Gemini на Vertex, и DeepSeek на собственных серверах. Но Клод самый лучший для моих инструментов. Я даю своим агентам проект и задачу - они автономно работают (ну, вернее, я сам настраиваю степень автономности). Я проверяю и параллельно работаю над чем-то другим. Их код - мой код, он идет в прод. Это не считается?

Если бы вы разобрались в самых элеметарных азах, LLM то не утверждали бы все то что выше написали

Парировать такое просто нечем, сдаюсь

-1

Какие-то алгоритмы есть. Один из самых известных - алгоритм Шора для разложения числа на простые множители. Но проблема в том, что его сложно понять без подготовки. В квантовых компьютерах нету традиционных и понятных операций с числами вроде AND или OR - там другие команды, работающие с массивами чего-то вроде взаимосвязанных вероятностей. И есть более высокоуровневые языки под конкретные эмуляторы.

Я согласен, что далеко с этим не уехать. Вакансий и правда нет. Студенты физмата еще имеют шанс попасть в лаборатории Гугла или IBM, а нам светит в лучшем случае общение с другими энтузиастами в Дискорде. Но если технология взлетит, можно оказаться в первых рядах тех, кто что-то понимает. И вполне себе откликаться на вакансии со своими поделками на Гитхабе. Примерно, как сейчас с ИИ. Но если не взлетит, все равно ок в качестве хобби. Квантовые компьютеры близки к магии.

0

Разве? Статья про факт прохождения теста Тьюринга, а не про то, что это означает. Единственный вывод:

современные большие языковые модели (LLM) могут заменять людей в коротких взаимодействиях без возможности быть распознанными

Ни слова про интеллект и разумность.

0

Технологии типа LLM, это вероятностная модель, а не модель основанная на строгих логических рассуждениях

Ну, вот, например, последнее исследование от Антропик, которое показывает, что, даже просто угадывая следующее слово, модель внутри делает что-то похожее на рассуждения: https://www.anthropic.com/news/tracing-thoughts-language-model У них там есть специальная модель, в которой лучше видно, какие узлы внутри нейронки активируются, когда она генерирует слово. И вот ее, например, просят сложить два числа. В каких-то случаях она выдает ответ сразу - потому что просто запомнила его во время обучения. Но если числа более сложные, например 36 и 59, то внутри происходит кое-что странное. Каждое число активирует свою цепочку узлов, округляется, распадается на какие-то числа попроще. Модель приближает их к тому, что лучше знает. Потом все ветки сходятся в одну - и это ответ. Это немного похоже на то, как человек работает с такими числами в уме. Это похоже на логику. В статье несколько таких примеров. Когда нужно продолжить стих, модель активирует две группы веток - для смысла и для рифмы.

У всех компаний теперь есть "думающие" модели. Которые сначала геренят "мысли" - стену текста, из которой потом собирают финальный ответ. В этой стене текста модель сначала планирует ответ, разбирает задачу на подзадачи, идет по ним, корректирует нестыковки в сгенеренном тексте. И это помогает. Собственно, все лидирующие модели - думающие.

Ну, и последний уровень абстракции - цикл в коде, который запускает модель. Все приличные ассистенты для кода на каждый запрос пользователя выполняют целую кучу внутренних запросов к модели. Сначала просят ее собрать данные, потом сгенерить код, потом проверить, исправить ошибки, повторить, если нужно. Сами берут файлы из проекта, сам мержат в них изменения. Выходит дорого (много запросов, они все большие и тяжелые, думающие модели еще и мысли генерят для каждого промежуточного ответа), но намного эффективнее, чем если просто копипастить куски кода в чатбот.

Живой программист все еще лучше. Все эти новости про автоматизацию - хайп и скрытые сокращения на почве финансов. Но ваши рассуждения - это про то, что было год-полтора назад. В современных ИИ системах много логики на разных уровнях.

-4

Это лучше, чем ничего, но сервера в США (в AWS и Azure) - это довольно опасно. Особенно сейчас, когда DOGE просто приходит, куда хочет. Слать правительство можно только до некоторой степени, пока оно не стучит в двери. Штукой для выбивания дверей. Мой VPN для торренов в Панаме, где у любителей бороться с терроризмом нет юрисдикции.

0

Если отбросить троллинг, то сейчас просто нет чатов, которым можно довериться. Никто не спрашивают у вас ключи, у вас их нет. Все приватные ключи у компаний под честное слово. Все root сертификаты тоже у них.

Единственное, что можно сделать, это вернуться в эпоху де-централизованных peer-to-peer решений.

0

Все может быть куда проще. Сначала тарифы для всего мира, а потом послабления в индивидуальном порядке. Удобный инструмент для торгов, который появился на ровном месте. Все слова и дейсвия Трампа нужно проверять временем - он сегодня одно говорит, а завтра другое.

Средний американец ждет перемен. В США разогналась инфляция, поднялись проценты по ипотеке, повысилась безработица. Все еще можно заработать много денег при желании, но люди без вышки и далеко идущих планов чувствуют, что беднеют. Им нет дела до всего, что происходит за пределами Штатов. Им надоели демократы, которые больше обеспокоены внешними проблемами и помощью всему миру, несмотря на растущий гос. долг. Средний американец не против, чтобы Трамп все сжег и построил заново.

4

Во времена Тьюринга было нормально думать, что если компьютер сможет хорошо разговаривать, то в нем точно будет интеллект. Сейчас все понимают, что это не так. Или не совсем так - даже есть интеллект и есть, то он какой-то другой, трудно сравнимый с человеческим. Тест Тьюринга потерял актуальность. Думаю, он уже давно пройден - все зависит от того, кого посадить тестировать. Специалист по ИИ раскусит любую модель, мою бабушку впечатлит и GPT-2.

На циферблат часов смотрит другая модель, которая не умеет разговаривать. Она выдает массив объектов и координат. К ней вряд ли применимо понятие интеллекта.

Бессмысленно сравнивать нейроны ИИ и живых существ. У них общего только название. Да и то, в литературе обычно вместо "нейронов" используют слово "юнит".

0

Что вы предлагаете? Не пользоваться, байкотировать, писать гадости на стенах? Может быть, серверные поджигать? Если уж на кого-то и злиться, то на тех, кто инвестирует в ИИ миллиарды, ожидая скорой финансовой выгоды. Это наши с вами работадатели. ИИ пока что убыточен, так что как бы там наивные программисты не хайповали - это не влияет ровным счетом ни на что.

2

Есть чему и есть на чем. Там другая математика, свои языки и алгоритмы. Можно разбираться и пробовать на эмуляторах. Если задаться целью, то можно и до реального квантового процессора дотянуться. Но это нужно иметь фантазию и желание погружаться в науку, а не на вакансии в аутсорсе смотреть.

1

У Маска свой ИИ (Grok 3), самый мощный в мире датацентр с gpu чипами и доступ ко всем документам всех структур США. Просто к слову

0

Статья норм, но как-то так написана, что трудно понять, о чем речь.

Тут смешаны две разные вещи. Reward Hacking - это термин из мира, где ИИ решает задачи с хорошо понятной целью, которую можно оценить формулой. Например, игра в шахматы. Каждая позиция имеет оценку, каждый ход меняет ее в полжительную или отрицательную сторону. Значит, после каждого хода алгоритму можно дать фитбек, а он будет на него реагировать. Может получится так, что модель будет получать хороший фитбек за какие-то неправильные действия. Например, если она найдет баг в шахматной программе, который мгновенно приводит к победе, она тут же начнет им пользоваться. Это и есть reward hacking. Это обычно означает, что способ оценки и фитбек не достаточно хороши. Подбор reward function - это самая сложная проблема в таких алгоритмах.

С LLM все сложнее, т.к. нету четкого способа оценить ответ. Reward Hacking тут заключается в другом. Модель может начать давать такие ответы, которые кажутся хорошими, но на самом деле они предвзяты или искажены. Довольно очевидный способ обнаруждения такого - мониторить "мысли". По умолчанию модели не пытаются ничего в них скрывать и выдают себя с потрохами. Но есть интересные исследования, в которым модели начинали менять свои мысли, когда узнавали, что их читают. Причем, все - это не только особенность какой-то одной компании. Никто не знает, почему и как с этим бороться. Собственно, статья о том, что мониторинг и правка "плохих" мыслей не решают проблему - модель все равно найдет способы работать не так, как задумано, на долгом отрезке времени.

1

ИИ запчасть по вин номеру подобрать не может , дать контакт логиста дешёвого с точной ценой для перевоза груза между континентами, найти нужный контакт , дать правильную бюрократическую процедуру натурализации например водительского удостоверения в новой стране экспату, отдать email рекрутера или даже правильный контакт снимающего рекрутера в большой компании

Все это ИИ, как раз, может. Нужно только дать ему инструменты поиска, и цикл, чтоб он мог в нем немного поработать перед финальным ответом. И модели для realtime разговора с вызовом инструментов в процессе уже есть. Думаю, что работам, где нужно просто разговаривать, задавать вопросы, записывать ответы и самому на что-то отвечать, осталось очень не долго.

0

Было бы интересно послушать про конкретные инструменты. С ATS системами все понятно - они были и до ИИ. С резюме тоже все понятно. А что за боты-автозаполнители? Что за ИИ ассистенты на интервью?

Не так-то просто все это настроить и эффективно использовать. Попробуйте, например, заставить ИИ зарегаться на девбай и оставить коммент. Даже OpenAI Operator за $200/месяц может надорваться. Возможно, если человек смог обойти все ваши ATS и интервью с помощью каких-то инструментов, он неплохой инженер.

И, по-моему, вы никак не ответили на вопрос в заголовке. На данном эпате рекрутер - бутылочное горлышко. Он тратит меньше минуты на просмотр резюме, он не ходит по ссылкам на гитхаб, не ищет технические публикации кандидата, не смотрит его stackoverflow профиль. Рекрутер в принципе не обращает внимение на кандидата, если тот не смог пробиться через предварительные фильтры. Возможно, ИИ-рекрутер найдет на все это время.

0