Комментарии

COBOL, Prolog, Scratch, Pascal aka Дельфа... Ну какой еще Искусственный Идиот? (и к счастью)

0

В 2024 благодаря Маску снова поверил в человечество (сэрё) 🤭 Этакие качели

-1

кража труда художника заметнее чем кража работы программиста

0

смысла писать в Линуксы, как и весь опенсорс, если это не приносит ничего нет, да и не настолько этот open открытый

0

... поэтому Трамп хочет редкоземельные металлы в обмен на помощь Украине

0

Микрософт впустую слил средства на чатгпт поэтому урезает другой функционал

0

Не так все и плохо
"Российские школьники взяли золото на олимпиаде по математике в Китае" (2024 декабрь)

0

Она стимулирует жёсткую конкуренцию между учащимися.
Китайская система стимулярует зубрежку https://radion-gz-china.livejournal.com/298513.html
Она стимулирует жёсткую конкуренцию между учащимися.
От результатов зависит будущее - либо илита, либо прозябание на задворках
Но требуется не понимание, а механическое запоминание
https://www.youtube.com/watch?v=pKqtJGJ7oGo (Игра на ВЫЖИВАНИЕ //Китайское Образование) (глазами китаянки)

0

хранимые процедуры годов с 80х
SQL Structured Query Language декларативный язык программирования🤷‍♂️

0

полностью беспилотное вождение (никогда не) будет... к счастью

0

(а-ха-ха) вначале Микрософт тырит Интернет (и ведь (не) докажешь... вроде), теперь китайцы тырят у них (мама миа)

0

Недоказано == не воровство, но ... Вы все правильно поняли :D

0

https://sites.google.com/view/elizaarchaeology/try-eliza (1966 год, 420 строк) примерно так же "осмысленные" ответы выдает🫢 просто переиспользуя слова

Люди не знают как функционирует интеллект поэтому воспроизвести не могут.

На одном онлайн курсе нужно было создать простейшую программу анализирующую частотность слов в тексте чтобы случайным образом по нему сгенерировать текст. Иногда это выглядит даже как осмысленное сообщение... потому что я его так интерпретировал. Но той игрушке не хватало объемов данных и учета частотности предыдущих слов.

В БД хранятся связи слов что очевидно. Не в вакууме же:)

Нейронные сети основаны на концепции перцептрона.

https://habr.com/ru/articles/491576/ "Так или иначе все нейросетевые архитектуры строят представления входных данных в виде векторов, которые "кодируют" полезные статистические и семантические свойства этих данных." Предзаписанные значения.

"Таким образом, построенные признаки для данного слова — просто сумма линейных преобразований признаков всех слов, взвешенных этой "важностью"."

"Наконец, авторы предлагают ещё один фокус, чтобы справиться с проблемой масштабирования: значения на каждой позиции преобразовывают двухслойным перцептроном с особой структурой." Перцептрон😄

https://gos24.kz/article/t9-na-steroidakh-kak-rabotaet-chatgpt-obiasnenie-dlia-chainikov T9 на стероидах. Мне запомнилось это сравнение. Принцип тот же.

"По сути, генерируя каждое следующее слово, модель выбирает его случайно. При этом учитывая, что вероятность выпадения разных слов должны примерно соответствовать тем вероятностям, которые подсказывают зашитые внутрь модели уравнения. А они выводятся при обучении ИИ на огромном массиве текстов. Получается, что одна и та же модель даже на абсолютно одинаковые запросы может давать совершенно разные варианты ответа — прямо как живой человек." Который найдет в сгенерированном тексте смысл🤷‍♂️

-1