<?xml version="1.0" encoding="utf-8"?> 
<rss version="2.0"
  xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd"
  xmlns:atom="http://www.w3.org/2005/Atom">

<channel>

<title>Yuriy Gavrilov: posts tagged AI</title>
<link>https://gavrilov.info/tags/ai/</link>
<description>Welcome to my personal place for love, peace and happiness 🤖 Yuiry Gavrilov</description>
<author></author>
<language>en</language>
<generator>Aegea 11.4 (v4171e)</generator>

<itunes:owner>
<itunes:name></itunes:name>
<itunes:email>yvgavrilov@gmail.com</itunes:email>
</itunes:owner>
<itunes:subtitle>Welcome to my personal place for love, peace and happiness 🤖 Yuiry Gavrilov</itunes:subtitle>
<itunes:image href="https://gavrilov.info/pictures/userpic/userpic-square@2x.jpg?1643451008" />
<itunes:explicit>no</itunes:explicit>

<item>
<title>Действительно ли данные готовы к ИИ</title>
<guid isPermaLink="false">321</guid>
<link>https://gavrilov.info/all/deystvitelno-li-dannye-gotovy-k-ii/</link>
<pubDate>Sat, 14 Mar 2026 00:19:28 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/deystvitelno-li-dannye-gotovy-k-ii/</comments>
<description>
&lt;p&gt;&lt;b&gt;Автор: Джейкоб Мэтсон&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://motherduck.com/blog/bird-bench-and-data-models"&gt;https://motherduck.com/blog/bird-bench-and-data-models&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Несколько месяцев назад я писал о том, почему нам может &lt;a href="https://motherduck.com/blog/who-needs-a-semantic-layer-anyway"&gt;не понадобиться семантический слой&lt;/a&gt;. Аргумент заключался в том, что ИИ может обнаруживать бизнес-логику из истории запросов, вместо того чтобы заставлять людей заранее определять каждую метрику. Я верил в это. Но у меня не было данных, чтобы это доказать.&lt;/p&gt;
&lt;p&gt;Теперь они у меня есть.&lt;/p&gt;
&lt;p&gt;Все началось с вопроса одного из наших инвесторов: *“Как различные модели справляются с BIRD при использовании MotherDuck MCP?”* Поэтому я провел эксперимент. Три передовые LLM модели (`Claude Opus 4.5`, `GPT-5.2` и `Gemini 3 Flash`), каждая из которых подключена к базе данных через сервер `MotherDuck MCP`, были запущены на наборе данных `BIRD Mini-Dev`.&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;b&gt;Пояснение:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;MCP (Model Context Protocol):** Стандарт, позволяющий ИИ-моделям безопасно и стандартизировано подключаться к внешним источникам данных и инструментам.&lt;/li&gt;
&lt;li&gt;BIRD (BIg Bench for Large-scale Database Grounded Text-to-SQL):** Популярный и сложный бенчмарк (набор тестов) для оценки того, насколько хорошо нейросети умеют переводить естественный язык в SQL-запросы.&lt;/li&gt;
&lt;li&gt;Mini-Dev:** Это официальная выборка из 500 вопросов для разработки из бенчмарка BIRD. Она охватывает 11 баз данных в сферах финансов, спорта, образования и здравоохранения.&lt;/li&gt;
&lt;/ul&gt;
&lt;/blockquote&gt;
&lt;p&gt;Модели данных здесь простые. В среднем 7 таблиц на базу данных. Ни в одной нет больше 13 таблиц. Объединения (joins) в основном «один-ко-многим», максимальная глубина — два или три перехода, ноль отношений «многие-ко-многим». Это тот тип схемы, который можно понять за пять минут, прочитав `DDL`.&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;b&gt;Пояснение:&lt;/b&gt; `DDL` (Data Definition Language) — это часть SQL, используемая для описания структуры базы данных (создание таблиц, колонок, связей).&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Результат? &lt;b&gt;95% точности.&lt;/b&gt; Никакого семантического слоя. Никакой истории запросов. Никакого специального контекста. Только схема базы данных.&lt;/p&gt;
&lt;p&gt;Но это число требует «звездочки» (примечания), и, честно говоря, эта звездочка — самая интересная часть.&lt;/p&gt;
&lt;h3&gt;Что на самом деле означают 95%&lt;/h3&gt;
&lt;p&gt;Вот что я измерял на самом деле.&lt;/p&gt;
&lt;p&gt;Бенчмарк BIRD оценивает точность, используя &lt;b&gt;Execution Accuracy (EX)&lt;/b&gt;: запускается предсказанный SQL и «золотой» (эталонный) SQL, сравниваются наборы результатов, и ставится бинарная оценка «сдал/не сдал». При этих строгих правилах текущий уровень развития технологий (SOTA) составляет около 76. Мои модели набрали 64 на тренировочной выборке и 58 на тестовой.&lt;/p&gt;
&lt;p&gt;Звучит плохо. Но у строгой оценки BIRD есть хорошо задокументированная проблема. В статье 2025 года, представляющей метрику `FLEX`, было обнаружено, что точность выполнения (execution accuracy) BIRD совпадает с оценками экспертов-людей только в 62% случаев. Почти 4 из 10 суждений ошибочны, в основном это ложноотрицательные результаты, когда бенчмарк отвергает ответы, которые люди бы приняли.&lt;/p&gt;
&lt;p&gt;Эти 62 бросились мне в глаза, потому что они почти точно совпадают с моей смешанной точностью при строгой оценке в 60.5 (64 обучение / 58 тест). То же наблюдение, но с другой стороны. Метрика `FLEX` пришла к этому с помощью проверяющих людей. Я пришел к этому, ослабив условия тестирования.&lt;/p&gt;
&lt;p&gt;Подумайте, что это значит для таблицы лидеров. Если бенчмарк согласен с людьми только в 62 случаев, то чтобы набрать выше 62 по строгим правилам, вы должны начать воспроизводить ошибки бенчмарка. Вы перестаете учиться писать правильный SQL. Вы начинаете учиться соответствовать специфической, иногда ошибочной интерпретации каждого вопроса в BIRD. Системы с рейтингом 76 закрепили эти ошибки суждения в своем обучении. Они получают более высокие баллы, становясь *хуже* в выполнении реальной задачи.&lt;/p&gt;
&lt;p&gt;Поэтому я построил более реалистичную оценку. Я разделил 500 вопросов на тренировочный набор (151 вопрос) и тестовый набор (349 вопросов).&lt;/p&gt;
&lt;p&gt;Я использовал &lt;b&gt;тренировочный набор (train)&lt;/b&gt; для калибровки оценки: вручную пересматривал ошибки, создавал исправленные «платиновые» ответы там, где «золотой» SQL BIRD был ошибочным, и настраивал правила частичного совпадения. &lt;b&gt;Тестовый набор (test)&lt;/b&gt; был контрольным.&lt;/p&gt;
&lt;p&gt;Вот как выглядит точность, если смягчать критерии оценки уровень за уровнем:&lt;/p&gt;
&lt;table cellpadding="0" cellspacing="0" border="0" class="e2-text-table"&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;Уровень оценки (Scoring Tier)&lt;/td&gt;
&lt;td style="text-align: center"&gt;Train&lt;/td&gt;
&lt;td style="text-align: center"&gt;Test&lt;/td&gt;
&lt;td style="text-align: center"&gt;Что добавляется&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;Только совпадение с Gold&lt;/b&gt; (≈ офиц. BIRD)&lt;/td&gt;
&lt;td style="text-align: center"&gt;64.0&lt;/td&gt;
&lt;td style="text-align: center"&gt;58.2&lt;/td&gt;
&lt;td style="text-align: center"&gt;Строгое равенство наборов результатов&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;+ Платиновые ответы&lt;/b&gt;&lt;/td&gt;
&lt;td style="text-align: center"&gt;73.1&lt;/td&gt;
&lt;td style="text-align: center"&gt;58.5&lt;/td&gt;
&lt;td style="text-align: center"&gt;Исправляет известные ошибки в «золотом» SQL BIRD (см. примечание ниже)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;+ Допуск форматирования&lt;/b&gt;&lt;/td&gt;
&lt;td style="text-align: center"&gt;78.8&lt;/td&gt;
&lt;td style="text-align: center"&gt;65.5&lt;/td&gt;
&lt;td style="text-align: center"&gt;Различия в `DISTINCT`, лишние колонки, округление&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;+ Судья LLM&lt;/b&gt;&lt;/td&gt;
&lt;td style="text-align: center"&gt;94.9&lt;/td&gt;
&lt;td style="text-align: center"&gt;94.4&lt;/td&gt;
&lt;td style="text-align: center"&gt;“Принял бы человек этот ответ?”&lt;/td&gt;
&lt;/tr&gt;
&lt;/table&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;b&gt;Примечание:&lt;/b&gt; «Платиновые» исправления существуют только для тренировочного набора, так как я вручную проверил эти 151 вопрос. Вот почему уровень «Платина» почти не меняется на тесте +0.3 pp против +9.1 pp на тренировке). Но посмотрите на уровень с судьей: 94.9 на тренировке и 94.4 на тесте. Разница всего в половину процентного пункта. Оценка держится на контрольной выборке даже без моих исправлений вручную.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h4&gt;Результаты тренировочной выборки (151 вопрос, все 3 модели):&lt;/h4&gt;
&lt;table cellpadding="0" cellspacing="0" border="0" class="e2-text-table"&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;Модель&lt;/td&gt;
&lt;td style="text-align: center"&gt;STRICT (≈ BIRD EX)&lt;/td&gt;
&lt;td style="text-align: center"&gt;REALISTIC&lt;/td&gt;
&lt;td style="text-align: center"&gt;Общая стоимость&lt;/td&gt;
&lt;td style="text-align: center"&gt;Вызовы инструментов (P5 / Median / P95)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;`Gemini 3 Flash`&lt;/td&gt;
&lt;td style="text-align: center"&gt;68.2&lt;/td&gt;
&lt;td style="text-align: center"&gt;94.0&lt;/td&gt;
&lt;td style="text-align: center"&gt;1.80&lt;/td&gt;
&lt;td style="text-align: center"&gt;3 / 6 / 9&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;`Claude Opus 4.5`&lt;/td&gt;
&lt;td style="text-align: center"&gt;64.9&lt;/td&gt;
&lt;td style="text-align: center"&gt;95.4&lt;/td&gt;
&lt;td style="text-align: center"&gt;26.37&lt;/td&gt;
&lt;td style="text-align: center"&gt;4 / 6 / 9&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;`GPT-5.2`&lt;/td&gt;
&lt;td style="text-align: center"&gt;58.9&lt;/td&gt;
&lt;td style="text-align: center"&gt;95.4&lt;/td&gt;
&lt;td style="text-align: center"&gt;6.87&lt;/td&gt;
&lt;td style="text-align: center"&gt;4 / 7 / 12&lt;/td&gt;
&lt;/tr&gt;
&lt;/table&gt;
&lt;h4&gt;Результаты тестовой выборки (349 вопросов, 2 модели):&lt;/h4&gt;
&lt;table cellpadding="0" cellspacing="0" border="0" class="e2-text-table"&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;Модель&lt;/td&gt;
&lt;td style="text-align: center"&gt;STRICT (≈ BIRD EX)&lt;/td&gt;
&lt;td style="text-align: center"&gt;REALISTIC&lt;/td&gt;
&lt;td style="text-align: center"&gt;Общая стоимость&lt;/td&gt;
&lt;td style="text-align: center"&gt;Вызовы инструментов (P5 / Median / P95)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;`Gemini 3 Flash`&lt;/td&gt;
&lt;td style="text-align: center"&gt;60.7&lt;/td&gt;
&lt;td style="text-align: center"&gt;94.6&lt;/td&gt;
&lt;td style="text-align: center"&gt;3.96&lt;/td&gt;
&lt;td style="text-align: center"&gt;4 / 6 / 9&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;`GPT-5.2`&lt;/td&gt;
&lt;td style="text-align: center"&gt;55.6&lt;/td&gt;
&lt;td style="text-align: center"&gt;94.3&lt;/td&gt;
&lt;td style="text-align: center"&gt;15.32&lt;/td&gt;
&lt;td style="text-align: center"&gt;4 / 7 / 11&lt;/td&gt;
&lt;/tr&gt;
&lt;/table&gt;
&lt;blockquote&gt;
&lt;p&gt;*Примечание: `Claude Opus` не запускался на тестовом наборе. После того как все три модели сошлись на ~95% на тренировке, тратить еще 60+, чтобы доказать то же самое на 349 вопросах, показалось нецелесообразным.*&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Медианная модель делает 6-7 вызовов инструментов MCP на вопрос при лимите в 10 итераций. Типичный вопрос выглядит так: изучить схему, просмотреть некоторые колонки, набросать запрос, проверить результаты, уточнить, готово. Некоторые модели, такие как `GPT-5.2`, делают несколько вызовов инструментов за итерацию, поэтому его показатель P95, равный 12, превышает лимит итераций.&lt;/p&gt;
&lt;p&gt;Все три модели достигают &lt;b&gt;94-95% при реалистичной оценке&lt;/b&gt;, независимо от того, где они начинают при строгой оценке. На тренировочной выборке разрыв между «лучшим» и «худшим» сокращается с 12.6 процентных пунктов до 1.4. На тесте — с 5.1 до 0.3. Берите любую передовую модель.&lt;/p&gt;
&lt;h3&gt;Бенчмарк иногда ошибается&lt;/h3&gt;
&lt;p&gt;BIRD — хороший бенчмарк. Но в нем есть баги. Только в тренировочном наборе (151 вопрос) я нашел 49 случаев, где «золотой» SQL явно неверен. Я не проверял вручную тестовый набор, поэтому реальное число для всех 500 вопросов, вероятно, выше.&lt;/p&gt;
&lt;p&gt;Вот пример, который мне запомнился. Вопрос просит список школ, чей совокупный балл превышает 1500. «Золотой» SQL проверяет `count` (количество) студентов, набравших более 1500 баллов. Совершенно другой запрос, совершенно другой ответ. Вы читаете вопрос, читаете «правильный» ответ и думаете: подождите, но спрашивали-то не об этом.&lt;/p&gt;
&lt;p&gt;Я создал исправленные «платиновые» ответы для этих случаев. В среднем около 14 из 151 вопроса тренировочной выборки для каждой модели совпали с платиновым ответом вместо золотого, добавив 9.1 процентных пунктов.&lt;/p&gt;
&lt;h3&gt;Людей не волнует форматирование&lt;/h3&gt;
&lt;p&gt;На тренировочной выборке еще +5.7 pp получается за счет принятия результатов, которые верны по существу, но не проходят проверку на строгое равенство:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Лишние колонки (30 случаев):&lt;/b&gt; Модель вернула запрошенные данные плюс дополнительный контекст. Человек сказал бы «спасибо, это полезно». Бенчмарк говорит «провал».&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Несовпадения `DISTINCT` (41 случай):&lt;/b&gt; Модель использовала `SELECT DISTINCT`, когда в золотом ответе этого не было, или наоборот. Уникальные значения совпадают идеально. Человек бы даже не заметил.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Различия в округлении (3 случая):&lt;/b&gt; Золотой ответ 24.67, ответ модели 24.6667. То же число, разная точность.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Ни один из этих ответов не является неверным. Это различия в форматировании, которые важны только для функции сравнения строк.&lt;/p&gt;
&lt;h3&gt;Человек (LLM)-в-петле (The LLM-in-the-Loop)&lt;/h3&gt;
&lt;p&gt;Оставшийся разрыв (16 pp на тренировке, 29 pp на тесте) закрывается &lt;b&gt;судьей LLM&lt;/b&gt;. Я использовал `Gemini 3 Flash` для проверки каждого «проваленного» ответа с вопросом: *действительно ли этот SQL отвечает на вопрос?*&lt;/p&gt;
&lt;p&gt;На тестовой выборке судья выполняет больше тяжелой работы, потому что там нет «платиновых» исправлений для предварительного отлова багов бенчмарка. Что именно он спасал?&lt;/p&gt;
&lt;table cellpadding="0" cellspacing="0" border="0" class="e2-text-table"&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;Причина&lt;/td&gt;
&lt;td style="text-align: center"&gt;Кол-во&lt;/td&gt;
&lt;td style="text-align: center"&gt;Что произошло&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;Больше отфильтровано&lt;/b&gt; (Missing rows)&lt;/td&gt;
&lt;td style="text-align: center"&gt;57&lt;/td&gt;
&lt;td style="text-align: center"&gt;Модель отфильтровала строже, чем золотой стандарт, но это обоснованно.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;Лишние строки&lt;/b&gt; (Extra rows)&lt;/td&gt;
&lt;td style="text-align: center"&gt;33&lt;/td&gt;
&lt;td style="text-align: center"&gt;Модель интерпретировала вопрос более широко.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;Близкие значения&lt;/b&gt; (Values close)&lt;/td&gt;
&lt;td style="text-align: center"&gt;19&lt;/td&gt;
&lt;td style="text-align: center"&gt;Числовые результаты в пределах допуска.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;Пустой результат&lt;/b&gt;&lt;/td&gt;
&lt;td style="text-align: center"&gt;14&lt;/td&gt;
&lt;td style="text-align: center"&gt;Модель ничего не вернула, но логика была верной (данных нет).&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;Пропущенные колонки&lt;/b&gt;&lt;/td&gt;
&lt;td style="text-align: center"&gt;11&lt;/td&gt;
&lt;td style="text-align: center"&gt;Возвращено меньше колонок, но ответ на вопрос дан.&lt;/td&gt;
&lt;/tr&gt;
&lt;/table&gt;
&lt;p&gt;Это оценочные суждения. Должен ли запрос «перечислите все школы в районе» включать чартерные школы? Разумные люди могут не согласиться. Строгий бенчмарк выбирает одну интерпретацию и наказывает за все остальные. Судья просто спрашивает, можно ли обосновать интерпретацию модели.&lt;/p&gt;
&lt;p&gt;Если вы создаете ИИ-аналитику, это важно. Никто не выпускает продукт text-to-SQL, где пользователь видит сырые результаты без этапа проверки. Всегда есть человек или LLM, проверяющий выходные данные. Эти 94-95% отражают то, как эти продукты работают на самом деле. 58-64% отражают то, как работают бенчмарки.&lt;/p&gt;
&lt;h3&gt;А как насчет контекста?&lt;/h3&gt;
&lt;p&gt;Вы могли бы ожидать, что дополнительный контекст поможет. Комментарии к колонкам, описания, подсказки о значении данных. Это интуиция, лежащая в основе семантических слоев и механизмов контекста.&lt;/p&gt;
&lt;p&gt;Я протестировал это. Те же 500 вопросов, все модели, с комментариями к колонкам каждой таблицы и без них.&lt;/p&gt;
&lt;table cellpadding="0" cellspacing="0" border="0" class="e2-text-table"&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;Схема&lt;/td&gt;
&lt;td style="text-align: center"&gt;Train&lt;/td&gt;
&lt;td style="text-align: center"&gt;Test&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;Без комментариев&lt;/b&gt;&lt;/td&gt;
&lt;td style="text-align: center"&gt;94.9&lt;/td&gt;
&lt;td style="text-align: center"&gt;94.4&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;С комментариями&lt;/b&gt;&lt;/td&gt;
&lt;td style="text-align: center"&gt;96.0&lt;/td&gt;
&lt;td style="text-align: center"&gt;94.6&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;Дельта&lt;/b&gt;&lt;/td&gt;
&lt;td style="text-align: center"&gt;1.1 pp&lt;/td&gt;
&lt;td style="text-align: center"&gt;0.2 pp&lt;/td&gt;
&lt;/tr&gt;
&lt;/table&gt;
&lt;p&gt;Один процентный пункт на тренировке, почти ничего на тесте. В большинстве вопросов правильность не изменилась.&lt;/p&gt;
&lt;p&gt;Если разбить по базам данных, становится интересно. Чем сложнее схема, тем больше помогают комментарии (усредненно по train и test):&lt;/p&gt;
&lt;table cellpadding="0" cellspacing="0" border="0" class="e2-text-table"&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;База данных&lt;/td&gt;
&lt;td style="text-align: center"&gt;Базовая точность&lt;/td&gt;
&lt;td style="text-align: center"&gt;Эффект комментариев&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;`debit_card_specializing`&lt;/td&gt;
&lt;td style="text-align: center"&gt;85.5 (самая сложная)&lt;/td&gt;
&lt;td style="text-align: center"&gt;8.7 pp&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;`european_football_2`&lt;/td&gt;
&lt;td style="text-align: center"&gt;93.2&lt;/td&gt;
&lt;td style="text-align: center"&gt;3.4 pp&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;`california_schools`&lt;/td&gt;
&lt;td style="text-align: center"&gt;95.7 (самая легкая)&lt;/td&gt;
&lt;td style="text-align: center"&gt;2.9 pp&lt;/td&gt;
&lt;/tr&gt;
&lt;/table&gt;
&lt;p&gt;Комментарии помогают, когда схема действительно запутанная. Таблица `debit_card_specializing` (попробуйте угадать, как выглядит эта схема) получила самый большой прирост. Но схемы с интуитивными названиями и очевидными связями? Там комментарии сделали только хуже. У моделей уже сформировалась правильная ментальная модель, а комментарии внесли шум.&lt;/p&gt;
&lt;p&gt;Каждый разработчик знает это о комментариях в коде. Полезны при реальной неоднозначности. Вредны, когда констатируют очевидное. `// увеличить i на 1` еще никому не помогло.&lt;/p&gt;
&lt;h3&gt;Почему простые модели данных работают&lt;/h3&gt;
&lt;p&gt;Базы данных BIRD — это не корпоративные хранилища данных. Они простые:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;7 таблиц в среднем.&lt;/li&gt;
&lt;li&gt;9 внешних ключей в среднем, в основном «один-ко-многим».&lt;/li&gt;
&lt;li&gt;Ноль связей «многие-ко-многим».&lt;/li&gt;
&lt;li&gt;Глубина join макс. 2-3 перехода, нет глубоких иерархий.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;LLM читают эти схемы так же, как опытный аналитик читает DDL. Они видят таблицу `schools` с колонками `school_name`, `district` и `enrollment`, и они знают, что делать. Внешний ключ от `schools` к `scores`? Они знают, как их соединить (join). Никому не нужен семантический слой, чтобы объяснить, что “enrollment” означает «количество студентов».&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Хорошее моделирование данных — это и есть семантический слой.&lt;/b&gt; Когда ваши таблицы названы хорошо, а объединения прямолинейны, у LLM есть всё необходимое.&lt;/p&gt;
&lt;h3&gt;Во что я бы инвестировал в первую очередь&lt;/h3&gt;
&lt;p&gt;Каждая среда уникальна, но вот как бы я расставил приоритеты, основываясь на том, что увидел:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Начните с модели данных.&lt;/b&gt; Чистые таблицы, понятные названия, простые объединения. Если опытный аналитик может посмотреть на вашу схему и понять ее за несколько минут, то и LLM сможет.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Затем добавьте целевой контекст.&lt;/b&gt; Комментарии к колонкам и метаданные, но только там, где действительно существует путаница. Документируйте таблицы типа `debit_card_specializing`, а не `schools`.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;История запросов идет следом.&lt;/b&gt; Она становится важнее по мере усложнения предметной области, особенно для обнаружения недокументированных бизнес-правил (вроде “abnormal GOT &gt; 60”). Базы данных BIRD имеют простые правила. Но я работаю над (проектом) `DABstep`, у которого простая модель данных, но очень сложные правила предметной области. Тот вид знаний, который живет в головах людей, а не в названиях колонок. Там история запросов и подобранный контекст будут значить гораздо больше. Но даже тогда чистая модель данных стоит на первом месте.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Наконец, не беспокойтесь о формальном семантическом слое. Если ваша модель данных чиста, а контекст целенаправлен, это почти ничего не добавляет для сценариев использования ИИ. На самом деле, кажется, что это даже мешает, так как ИИ отлично пишет SQL, но менее хорош в работе с другими инструментами.&lt;/p&gt;
&lt;h3&gt;Начните сейчас&lt;/h3&gt;
&lt;p&gt;Планка для «данных, готовых к ИИ», ниже, чем вам говорит индустрия.&lt;/p&gt;
&lt;p&gt;Вам не нужен “движок контекста”, семантический слой, годы истории запросов или специализированная платформа метаданных. Вам нужна &lt;b&gt;чистая модель данных и LLM&lt;/b&gt;. Найдите домен, который готов к этому, и начните там.&lt;/p&gt;
&lt;p&gt;Разрыв между «точностью бенчмарка» и «примет ли это человек?» составил 31 pp на тренировочной выборке и 36 pp на тестовой. Это огромный разрыв, и он закрывается в тот момент, когда вы включаете человека или LLM в цикл проверки. Именно так и работает любой продукт ИИ-аналитики.&lt;/p&gt;
&lt;p&gt;Если ваша модель данных чиста, начните сегодня. Направьте LLM на вашу схему и задавайте вопросы. Если ваша модель данных не чиста, теперь вы знаете, с чего начать.&lt;/p&gt;
&lt;p&gt;***&lt;/p&gt;
&lt;h4&gt;Итоги статьи&lt;/h4&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Проблема:&lt;/b&gt; Принято считать, что для работы ИИ с базами данных (Text-to-SQL) нужны сложные семантические слои, история запросов и контекст.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Эксперимент:&lt;/b&gt; Автор протестировал работу современных LLM (Claude, Gemini, GPT) на известном наборе данных BIRD.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Открытие 1:&lt;/b&gt; Формальные бенчмарки занижают качество работы ИИ. Они требуют строгого совпадения SQL-запросов, хотя люди принимают ответы с правильными данными, но другим форматированием (лишние колонки, другой порядок сортировки). Истинная (“реалистичная”) точность моделей достигает &lt;b&gt;95%&lt;/b&gt;, тогда как бенчмарк показывает около 60%.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Открытие 2:&lt;/b&gt; “Готовность данных к ИИ” сводится к понятной структуре базы данных. Чистые таблицы, внятные названия колонок и простые связи работают лучше, чем нагромождение комментариев.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Открытие 3:&lt;/b&gt; Дополнительные комментарии (контекст) нужны только для реально запутанных схем. В простых случаях они даже мешают, создавая шум.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Вывод:&lt;/b&gt; Не тратьте ресурсы на сложные семантические надстройки. Инвестируйте в &lt;b&gt;чистоту модели данных&lt;/b&gt; (понятные имена таблиц и полей). Хорошая модель данных — это и есть лучший семантический слой для ИИ.&lt;/li&gt;
&lt;/ol&gt;
</description>
</item>

<item>
<title>Data Stack 2.0: Закат Lambda-архитектуры и восход Fluss с Lance</title>
<guid isPermaLink="false">317</guid>
<link>https://gavrilov.info/all/data-stack-2-0-zakat-lambda-arhitektury-i-voshod-fluss-s-lance/</link>
<pubDate>Fri, 13 Feb 2026 01:59:35 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/data-stack-2-0-zakat-lambda-arhitektury-i-voshod-fluss-s-lance/</comments>
<description>
&lt;h2&gt;Data Stack 2.0: Закат Lambda-архитектуры и восход Fluss с Lance&lt;/h2&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2026-02-13-v-01.58.40.png" width="1796" height="340" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;В мире инфраструктуры данных происходит “тектонический сдвиг”, описанный в отчетах &lt;a href="https://a16z.com/emerging-architectures-for-modern-data-infrastructure/"&gt;a16z.com&lt;/a&gt;. Индустрия отходит от сложной Lambda-архитектуры (где batch и streaming живут отдельно) к унифицированным решениям, которые называют &lt;b&gt;Streamhouse&lt;/b&gt;.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2026-02-13-v-01.59.13.png" width="1476" height="412" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Два ключевых игрока, меняющих правила игры в этом переходе:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Apache Fluss&lt;/b&gt; — управляемое хранилище для потоковой обработки (Streaming Storage).&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Lance&lt;/b&gt; — формат данных нового поколения для AI и Data Lake.&lt;/li&gt;
&lt;/ol&gt;
&lt;h3&gt;1. Проблема: Почему одной Kafka больше недостаточно?&lt;/h3&gt;
&lt;p&gt;Долгое время Apache Kafka была стандартом де-факто для передачи данных. Однако, как отмечают эксперты Ververica в статье &lt;a href="https://www.ververica.com/blog/a-world-without-kafka"&gt;Мир без Kafka&lt;/a&gt;, Kafka была спроектирована как *распределенный лог*, а не как база данных.&lt;/p&gt;
&lt;p&gt;Перевод есть тут, у меня: &lt;a href="https://gavrilov.info/all/mir-bez-kafka-pochemu-kafka-ne-podhodit-dlya-analitiki-realnogo/"&gt;https://gavrilov.info/all/mir-bez-kafka-pochemu-kafka-ne-podhodit-dlya-analitiki-realnogo/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Фундаментальные ограничения брокеров сообщений (Kafka/Pulsar) для аналитики:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Слабая работа с обновлениями (Updates):&lt;/b&gt; Kafka — это `append-only` система. Реализация `UPDATE` или `DELETE` требует использования *Compact Topics*, что не дает гарантий мгновенной консистентности и сложно в эксплуатации.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Медленное чтение истории:&lt;/b&gt; Чтобы найти запись годичной давности, вам часто нужно прочитать весь лог последовательно (Scan). Сложность операции — $O(N)$.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Row-based природа:&lt;/b&gt; Данные хранятся строками (Message bytes). Для аналитики (OLAP), где нам нужен средний чек по столбцу `price`, системе приходится распаковывать и читать *все* поля сообщения, что неэффективно.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;2. Apache Fluss: Недостающее звено для Flink&lt;/h3&gt;
&lt;p&gt;&lt;a href="https://fluss.apache.org"&gt;Apache Fluss&lt;/a&gt; создан, чтобы решить проблему “разделения” между потоком и таблицей. Это нативное хранилище для Apache Flink, которое поддерживает &lt;a href="https://www.ververica.com/blog/introducing-fluss"&gt;концепцию Fluss&lt;/a&gt;.&lt;/p&gt;
&lt;h4&gt;Архитектурные прорывы:&lt;/h4&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Гибридная модель чтения (Stream-Table Duality):&lt;/b&gt; Fluss позволяет читать данные и как бесконечный поток (Log), и как изменяемую таблицу с первичными ключами (Primary Key Table). Это делает реализацию &lt;b&gt;CDC (Change Data Capture)&lt;/b&gt; тривиальной: обновления перезаписывают старые значения по ключу.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Колоночная проекция (Columnar Projection):&lt;/b&gt; В отличие от Kafka, Fluss может отдавать аналитическому движку (Flink) только нужные колонки. Это снижает нагрузку на сеть (`I/O`) в разы.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Real-Time Lookups:&lt;/b&gt; Fluss поддерживает точечные запросы (Point Lookup) по первичному ключу с задержкой порядка миллисекунд.  &lt;br /&gt;
$$Latency_{Fluss} \ll Latency_{Kafka Scan}$$  &lt;br /&gt;
Это позволяет использовать его как *Serverless State* для приложений, избавляясь от необходимости ставить рядом Redis или RocksDB.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Tiered Storage в Data Lake:&lt;/b&gt; Fluss работает в паре с &lt;b&gt;Apache Paimon&lt;/b&gt; (ранее Flink Table Store). Горячие данные живут в Fluss (на быстрых дисках/RAM), а по мере устаревания автоматически конвертируются в формат Lakehouse (Paimon/Parquet/ ну или Iceberg) и уходят в S3.&lt;/li&gt;
&lt;/ol&gt;
&lt;h3&gt;3. Lance: Новый стандарт для AI в Data Lake&lt;/h3&gt;
&lt;p&gt;Если Fluss отвечает за доставку и горячее состояние, то &lt;b&gt;Lance&lt;/b&gt; меняет подход к хранению холодных данных для задач машинного обучения (ML).&lt;/p&gt;
&lt;p&gt;Традиционный формат &lt;b&gt;Parquet&lt;/b&gt; великолепен для аналитики (сканирование больших диапазонов), но ужасен для AI, где требуется &lt;b&gt;случайный доступ (Random Access)&lt;/b&gt; для формирования батчей обучения.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://lance.org"&gt;Lance&lt;/a&gt; решает эти проблемы:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Случайный доступ:** Lance позволяет извлекать строки по индексу в ~100 раз быстрее Parquet.&lt;/li&gt;
&lt;li&gt;Векторный поиск:** Это формат со встроенным векторным индексом (IVF-PQ). Вы можете хранить эмбеддинги прямо в файлах на S3 и выполнять поиск ближайших соседей (ANN) без отдельной VectorDB (вроде Pinecone или Milvus).&lt;/li&gt;
&lt;li&gt;Zero-Copy версионирование:** Эффективное управление версиями датасетов без дублирования данных.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;4. Сборка пазла: Как это работает вместе&lt;/h3&gt;
&lt;p&gt;Современный &lt;b&gt;Streamhouse&lt;/b&gt; (см. &lt;a href="https://bigdataschool.ru/blog/news/flink/fluss-for-flink/"&gt;примеры архитектуры]&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;выглядит как-то так:&lt;/p&gt;
&lt;p&gt;Схема потока данных (Workflow):&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Ingestion:&lt;/b&gt;  &lt;br /&gt;
Приложения (на Go, Java, Python) пишут данные.&lt;/li&gt;

&lt;ul&gt;
  &lt;li&gt;Важно:* Поскольку Fluss совместим с протоколом Kafka, можно использовать существующие &lt;b&gt;Kafka-клиенты&lt;/b&gt; в Go-сервисах для записи в Fluss, не дожидаясь нативных библиотек. Но это пока только теория. Сходу я не нашел примеров быстро, но можно использовать GO и Arrow Flight SQL.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;&lt;b&gt;Streaming Storage (Fluss):&lt;/b&gt;  &lt;br /&gt;
Fluss принимает данные, индексирует первичные ключи и хранит “горячее” окно (например, 24 часа).&lt;/li&gt;

&lt;ul&gt;
  &lt;li&gt;Flink* выполняет `JOIN` и агрегации прямо поверх Fluss, используя `Lookup Join` (обогащение данных без сохранения большого стейта внутри Flink).&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="3"&gt;
&lt;li&gt;&lt;b&gt;Archiving &amp; AI (Paimon/Lance):&lt;/b&gt;  &lt;br /&gt;
Исторические данные сбрасываются в S3.&lt;/li&gt;

&lt;ul&gt;
  &lt;li&gt;Для классической BI-аналитики используется формат &lt;b&gt;Apache Paimon&lt;/b&gt; или Iceberg.&lt;/li&gt;
  &lt;li&gt;Для ML-задач данные конвертируются или хранятся в &lt;b&gt;Lance&lt;/b&gt;.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="4"&gt;
&lt;li&gt;&lt;b&gt;Unified Analytics (Trino):&lt;/b&gt;  &lt;br /&gt;
Движок &lt;a href="https://lance.org/integrations/trino/config/"&gt;Trino&lt;/a&gt; позволяет делать SQL-запросы ко всем слоям одновременно. Аналитик пишет один `SELECT`, а Trino забирает свежие данные из Fluss, а исторические — из S3 (Lance/Parquet/iceberg).&lt;/li&gt;
&lt;/ol&gt;
&lt;h4&gt;Пример интеграции (концептуальный)&lt;/h4&gt;
&lt;p&gt;Поскольку прямого клиента Go для Fluss нет, использование в микросервисах чаще всего выглядит как работа через Kafka-протокол или HTTP-прокси, а основная логика ложится на Flink (Java/Python/ или еще чего):&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;// Flink SQL example: Создание таблицы, управляемой Fluss
CREATE TABLE user_behavior (
    user_id BIGINT,
    item_id BIGINT,
    action STRING,
    ts TIMESTAMP(3),
    PRIMARY KEY (user_id) NOT ENFORCED
) WITH (
    'connector' = 'fluss',
    'bootstrap.servers' = '...:9092', // Fluss совместим с Kafka-адресацией
    'table.log.consistency' = 'eventual' // Оптимизация под высокую пропускную способность
);&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;Надо пробовать и тестировать... все таки еще инкубационный и это только теория.&lt;/p&gt;
&lt;h3&gt;5. Выводы и рекомендации&lt;/h3&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Не используйте Kafka как базу данных.&lt;/b&gt; Если вашей архитектуре требуются частые обновления (`UPSERT`) и точечные запросы (`Lookup`), &lt;a href="https://fluss.apache.org"&gt;Apache Fluss&lt;/a&gt; — это более подходящий инструмент в экосистеме Flink.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Lance для AI.&lt;/b&gt; Если вы строите RAG (Retrieval-Augmented Generation) или RecSys, рассмотрите формат Lance вместо связки “Parquet + внешняя VectorDB”. Это упростит инфраструктуру.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Следите за совместимостью.&lt;/b&gt; Интеграции Lance с Trino и Fluss с не-JVM языками (например, Go, Rust или еще чего) находятся в активной разработке. Используйте проверенные пути (Kafka Protocol для Ingestion, DataFusion/Java/Python для Querying).&lt;/li&gt;
&lt;/ol&gt;
&lt;h4&gt;Полезные ресурсы для изучения:&lt;/h4&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href="https://a16z.com/emerging-architectures-for-modern-data-infrastructure/"&gt;Emerging Architectures for Modern Data Infrastructure (a16z&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;&lt;a href="https://www.ververica.com/blog/introducing-fluss"&gt;Introducing Fluss (Ververica&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;&lt;a href="https://bigdataschool.ru/blog/news/flink/fluss-for-flink/"&gt;Fluss for Flink (BigDataSchool&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;&lt;a href="https://github.com/lance-format/lance-trino/issues/29#issuecomment-3893178604"&gt;Lance &amp; Trino Integration Issue (GitHub&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
</description>
</item>

<item>
<title>ИИ в 2025 году: Чему нас научили 100 триллионов токенов?</title>
<guid isPermaLink="false">303</guid>
<link>https://gavrilov.info/all/ii-v-2025-godu-chemu-nas-nauchili-100-trillionov-tokenov/</link>
<pubDate>Sat, 13 Dec 2025 00:02:25 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/ii-v-2025-godu-chemu-nas-nauchili-100-trillionov-tokenov/</comments>
<description>
&lt;p&gt;&lt;b&gt;Как на самом деле мир использует искусственный интеллект: от смерти чат-ботов к рождению агентов&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Долгое время наше понимание того, как люди используют нейросети, строилось на опросах и догадках. Компания OpenRouter провела масштабное эмпирическое исследование, проанализировав &lt;b&gt;100 триллионов токенов&lt;/b&gt; (единиц информации), прошедших через их платформу за последний год (по декабрь 2025). Эти данные рисуют картину, кардинально отличающуюся от маркетинговых обещаний техногигантов.&lt;/p&gt;
&lt;p&gt;Вот небольшой обзор того, как изменился ландшафт ИИ.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Ссылка на оригинал исследования:&lt;/b&gt;&lt;br /&gt;
&lt;a href="https://openrouter.ai/state-of-ai"&gt;State of AI: An Empirical 100 Trillion Token Study with OpenRouter&lt;/a&gt;&lt;/p&gt;
&lt;h3&gt;1. Конец эпохи «Вопрос-Ответ». Наступление эры «Думающих машин»&lt;/h3&gt;
&lt;p&gt;Самый главный сдвиг 2025 года — это переход от простой генерации текста к &lt;b&gt;агентному инференсу&lt;/b&gt; (agentic inference).&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Если раньше пользователь просил: «Напиши письмо», то теперь запрос звучит как: «Проанализируй эти файлы, напиши код, проверь его и выдай результат».&lt;/li&gt;
&lt;li&gt;Доля использования моделей, способных к «рассуждению» (reasoning models, таких как o1, Gemini 2.5, DeepSeek R1), выросла с близких к 0% значений в начале года до более чем 50% к концу 2025-го.&lt;/li&gt;
&lt;li&gt;Запросы стали сложнее: средняя длина промпта (входных данных) выросла в 4 раза. ИИ перестал быть собеседником и стал исполнителем, встроенным в сложные цепочки задач.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;2. «Эффект хрустальной туфельки»: почему пользователи хранят верность&lt;/h3&gt;
&lt;p&gt;Исследование выявило удивительный феномен, названный &lt;b&gt;«Эффектом хрустальной туфельки Золушки»&lt;/b&gt;.&lt;br /&gt;
Рынок ИИ характеризуется огромной текучкой: пользователи постоянно пробуют новые модели и бросают их. Однако существуют «фундаментальные когорты» (foundational cohorts) — группы ранних пользователей, которые остаются с конкретной моделью навсегда.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Это происходит, когда новая модель первой решает конкретную, ранее невыполнимую задачу пользователя (как туфелька, которая подошла только Золушке).&lt;/li&gt;
&lt;li&gt;Как только этот «пазл» складывается, пользователь встраивает модель в свои рабочие процессы и перестает искать альтернативы, даже если выходят более дешевые аналоги.&lt;/li&gt;
&lt;li&gt;Если модель на старте не находит свою «боль», которую она лечит лучше всех, она обречена на забвение, даже будучи качественной.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;3. Программирование поглощает ИИ&lt;/h3&gt;
&lt;p&gt;Миф о том, что ИИ — это в первую очередь генератор текстов и картинок, разрушен данными.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Программирование&lt;/b&gt; стало доминирующей категорией, превысив 50% от всего объема токенов к концу 2025 года.&lt;/li&gt;
&lt;li&gt;Это самая конкурентная сфера: здесь идет ожесточенная битва между Anthropic (Claude), OpenAI и новыми игроками вроде Qwen.&lt;/li&gt;
&lt;li&gt;Код — это драйвер сложности: именно задачи по программированию требуют самых длинных контекстов и глубокого рассуждения.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;4. Скрытая жизнь Open Source: Ролевые игры и Китай&lt;/h3&gt;
&lt;p&gt;Рынок четко разделился на две части: закрытые модели (Closed Source) и открытые (Open Source).&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Баланс сил:** Открытые модели теперь занимают около 30% рынка.&lt;/li&gt;
&lt;li&gt;Китайский прорыв:** Модели из Китая (DeepSeek, Qwen) совершили рывок с 1.2% до почти 30% доли рынка в пиковые недели. Они обновляются невероятно быстро, предлагая качество уровня GPT-4 бесплатно или очень дешево.&lt;/li&gt;
&lt;li&gt;Для чего используют Open Source?&lt;b&gt; Более 50% трафика открытых моделей приходится на **Roleplay (Ролевые игры)&lt;/b&gt;. Люди используют их для создания персонажей, интерактивных историй и развлечений, где важна свобода от цензуры и творческая гибкость. В то же время, закрытые модели (Claude, GPT) доминируют в бизнесе и программировании.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;5. Размер имеет значение: «Средний» — это новый стандарт&lt;/h3&gt;
&lt;p&gt;В 2024 году рынок состоял из гигантских дорогих моделей и маленьких слабых. В 2025 году сформировался класс &lt;b&gt;«Medium»&lt;/b&gt; (от 15 до 70 миллиардов параметров).&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Маленькие модели вымирают.&lt;/li&gt;
&lt;li&gt;Средние модели (например, Qwen Coder 32B) стали «золотой серединой»: они достаточно умны для сложных задач, но достаточно дешевы для массового использования.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;6. Цена больше не определяет спрос&lt;/h3&gt;
&lt;p&gt;Анализ показал слабую эластичность спроса.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Пользователи делятся на два лагеря. Одни готовы платить любые деньги (30-40$ долларов за миллион токенов) за &lt;b&gt;премиум-интеллект&lt;/b&gt; (модели OpenAI, Anthropic) для критически важных задач.&lt;/li&gt;
&lt;li&gt;Другие выбирают «эффективных гигантов» (DeepSeek, Google Flash), где цена стремится к нулю, для обработки огромных массивов данных.&lt;/li&gt;
&lt;li&gt;Просто «быть дешевым» недостаточно. Дешевые модели без уникальных способностей игнорируются рынком.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;7. Глобализация интеллекта&lt;/h3&gt;
&lt;p&gt;ИИ перестает быть «западной» технологией.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Доля Азии в потреблении ИИ выросла с 13% до 31%.&lt;/li&gt;
&lt;li&gt;Азия теперь не только потребляет, но и производит передовые модели, которые конкурируют на равных с Кремниевой долиной.&lt;/li&gt;
&lt;/ul&gt;
&lt;hr /&gt;
&lt;h3&gt;Основные выводы и тренды&lt;/h3&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Смерть «простого чат-бота»:&lt;/b&gt; Будущее за агентами, которые умеют планировать, писать код и использовать инструменты (браузер, терминал).&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Дуополия задач:&lt;/b&gt; Рынок кристаллизовался вокруг двух мега-сценариев — &lt;b&gt;Программирование&lt;/b&gt; (для работы) и &lt;b&gt;Ролевые игры&lt;/b&gt; (для развлечения). Все остальное (перевод, юриспруденция, наука) занимает нишевые доли.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Битва экосистем:&lt;/b&gt; Нет «одной нейросети, чтоб править всеми». Разработчики комбинируют закрытые дорогие модели для «мозгов» и открытые дешевые модели для рутины.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Удержание важнее хайпа:&lt;/b&gt; Успех модели теперь измеряется не пиком скачиваний, а способностью создать «фундаментальную когорту» пользователей, чью уникальную проблему она решила первой.&lt;/li&gt;
&lt;/ol&gt;
&lt;h3&gt;Итог&lt;/h3&gt;
&lt;p&gt;Данные за 2025 год показывают, что индустрия перешла от фазы экспериментов к фазе прагматичной интеграции. Мы больше не спрашиваем ИИ «кто президент США?». Мы поручаем ему: «Напиши приложение, исправь баги и разверни его на сервере». ИИ стал новой вычислительной инфраструктурой, где код и креативность являются главными валютами.&lt;/p&gt;
</description>
</item>

<item>
<title>Dino v3 🦖</title>
<guid isPermaLink="false">265</guid>
<link>https://gavrilov.info/all/dino-v3/</link>
<pubDate>Sat, 16 Aug 2025 11:04:40 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/dino-v3/</comments>
<description>
&lt;p&gt;&lt;a href="https://github.com/facebookresearch/dinov3"&gt;https://github.com/facebookresearch/dinov3&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Новая вижн моделька&lt;/p&gt;
&lt;p&gt;&lt;video width="740" controls&gt;&lt;br /&gt;
&lt;source src="http://a.gavrilov.info/data/posts/dinov3.mp4" type="video/mp4"&gt;&lt;br /&gt;
&lt;/video&gt;&lt;/p&gt;
</description>
</item>

<item>
<title>Экосистема инструментов для Data Science и AI: От Дашбордов до Продвинутого MLOps</title>
<guid isPermaLink="false">262</guid>
<link>https://gavrilov.info/all/ekosistema-instrumentov-dlya-data-science-i-ai-ot-dashbordov-do/</link>
<pubDate>Sun, 10 Aug 2025 23:40:36 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/ekosistema-instrumentov-dlya-data-science-i-ai-ot-dashbordov-do/</comments>
<description>
&lt;p&gt;Все это можно быстро и просто запустить тут: &lt;a href="https://www.ploomber.io"&gt;https://www.ploomber.io&lt;/a&gt;&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-08-10-v-23.32.24.png" width="550" height="564" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;В современной науке о данных и разработке искусственного интеллекта недостаточно просто создать модель в Jupyter Notebook ( о нем вы уже знаете ) . Настоящая ценность раскрывается, когда результатами можно поделиться, когда модели становятся интерактивными и когда они надежно развернуты в производственной среде. Для решения этих задач появилось множество фреймворков, каждый со своими сильными сторонами и философией.&lt;/p&gt;
&lt;p&gt;В этой статье мы рассмотрим и оценим ключевые инструменты, которые позволяют дата-сайентистам и ML-инженерам создавать веб-приложения, чат-ботов, API, отчеты и управлять жизненным циклом моделей.&lt;/p&gt;
&lt;h4&gt;Категория 1: Фреймворки для создания веб-приложений и дашбордов&lt;/h4&gt;
&lt;p&gt;Это самая многочисленная группа, предназначенная для быстрого превращения данных и моделей в интерактивные пользовательские интерфейсы без необходимости глубокого изучения фронтенд-технологий.&lt;/p&gt;
&lt;h5&gt;&lt;b&gt;Streamlit&lt;/b&gt;&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;GitHub Stars:&lt;/b&gt; 40.8k+&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Официальный сайт:&lt;/b&gt; &lt;a href="https://streamlit.io/"&gt;streamlit.io&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;GitHub Repo:&lt;/b&gt; &lt;a href="https://github.com/streamlit/streamlit"&gt;streamlit&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Описание и назначение:&lt;/b&gt; Streamlit — это, возможно, самый популярный фреймворк для быстрого создания data-приложений. Его философия — превратить скрипты в красивые веб-интерфейсы с минимальными усилиями. Приложение работает по простой модели: скрипт выполняется сверху вниз при каждом взаимодействии пользователя, что упрощает управление состоянием.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Особенности и оценка:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Сильные стороны:&lt;/b&gt; Невероятная простота и скорость разработки. Идеально подходит для создания прототипов, демо и внутренних инструментов &lt;a href="https://medium.com/@anna.bildea/choosing-the-right-ui-framework-for-genai-projects-54177640b9ca"&gt;medium.com&lt;/a&gt;. Отличная документация и большое сообщество.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Слабые стороны:&lt;/b&gt; Модель “перезапуска всего скрипта” может быть неэффективной для сложных приложений с большим количеством состояний. Кастомизация интерфейса за пределами стандартных компонентов может быть сложной задачей &lt;a href="https://ai.gopubby.com/top-5-python-frontend-libraries-for-data-science-91261a65e366?gi=b10c3467a931"&gt;ai.gopubby.com&lt;/a&gt;.&lt;/li&gt;
&lt;/ul&gt;
&lt;h5&gt;&lt;b&gt;Dash&lt;/b&gt;&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;GitHub Stars:&lt;/b&gt; 23.9k+&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Официальный сайт:&lt;/b&gt; &lt;a href="https://plotly.com/dash/"&gt;plotly.com/dash&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;GitHub Repo:&lt;/b&gt; &lt;a href="https://github.com/plotly/dash"&gt;github.com/plotly/dash&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Описание и назначение:&lt;/b&gt; Dash от создателей Plotly — это мощный фреймворк для создания аналитических веб-приложений. Он использует Flask, Plotly.js и React.js под капотом, предоставляя Python-разработчикам доступ к современным веб-технологиям.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Особенности и оценка:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Сильные стороны:&lt;/b&gt; Высокая степень кастомизации и контроля. Идеален для корпоративных дашбордов и сложных приложений, требующих уникального дизайна и функциональности. Отличная интеграция с экосистемой Plotly.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Слабые стороны:&lt;/b&gt; Более высокий порог вхождения по сравнению со Streamlit. Концепция “коллбэков” требует времени для освоения.&lt;/li&gt;
&lt;/ul&gt;
&lt;h5&gt;&lt;b&gt;Solara&lt;/b&gt;&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;GitHub Stars:&lt;/b&gt; 2.1k+&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Официальный сайт:&lt;/b&gt; &lt;a href="https://solara.dev/"&gt;solara.dev&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;GitHub Repo:&lt;/b&gt; &lt;a href="https://github.com/widgetti/solara"&gt;github.com/widgetti/solara&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Описание и назначение:&lt;/b&gt; Solara позволяет создавать веб-приложения на чистом Python, используя компонентный подход, похожий на React. Он построен на базе Ipywidgets и может работать как в Jupyter Notebook, так и в виде самостоятельных приложений.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Особенности и оценка:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Сильные стороны:&lt;/b&gt; Компонентная архитектура способствует созданию чистого и переиспользуемого кода. Хорошо подходит для создания масштабируемых приложений корпоративного уровня &lt;a href="https://ai.gopubby.com/top-5-python-frontend-libraries-for-data-science-91261a65e366?gi=b10c3467a931"&gt;ai.gopubby.com&lt;/a&gt;.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Слабые стороны:&lt;/b&gt; Менее известен, чем Streamlit или Dash, что означает меньшее сообщество и меньше готовых решений.&lt;/li&gt;
&lt;/ul&gt;
&lt;h5&gt;&lt;b&gt;Gradio&lt;/b&gt;&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;GitHub Stars:&lt;/b&gt; 39.4k+&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Официальный сайт:&lt;/b&gt; &lt;a href="https://gradio.app/"&gt;gradio.app&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;GitHub Repo:&lt;/b&gt; &lt;a href="https://github.com/gradio-app/gradio"&gt;github.com/gradio-app/gradio&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Описание и назначение:&lt;/b&gt; Gradio создан для невероятно быстрого создания демо для моделей машинного обучения. Всего за несколько строк кода можно обернуть любую Python-функцию (например, предсказание модели) в простой веб-интерфейс.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Особенности и оценка:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Сильные стороны:&lt;/b&gt; Максимальная простота для демонстрации моделей. Поддерживает различные типы ввода/вывода (текст, изображения, аудио). Легко встраивается в Jupyter/Colab и генерирует публичные ссылки для демонстрации.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Слабые стороны:&lt;/b&gt; Не предназначен для создания сложных, многостраничных дашбордов. Фокус смещен на “вход -&gt; модель -&gt; выход”. Структура приложения `app.py` часто используется для бэкенда при создании мультимодальных инструментов &lt;a href="https://ai.plainenglish.io/beyond-text-building-a-fully-multimodal-ai-tool-images-speech-rag-together-8fe4cb322c64?gi=47624379873a&amp;source=rss----78d064101951---4"&gt;ai.plainenglish.io&lt;/a&gt;.&lt;/li&gt;
&lt;/ul&gt;
&lt;h5&gt;&lt;b&gt;Shiny for Python &amp; Shiny Express&lt;/b&gt;&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;GitHub Stars:&lt;/b&gt; 1.6k+ (Python)&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Официальный сайт:&lt;/b&gt; &lt;a href="https://shiny.posit.co/py/"&gt;shiny.posit.co/py&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;GitHub Repo:&lt;/b&gt; &lt;a href="https://github.com/posit-dev/py-shiny"&gt;github.com/posit-dev/py-shiny&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Описание и назначение:&lt;/b&gt; Shiny, легендарный фреймворк из мира R, теперь доступен и для Python. Он использует реактивную модель программирования, где изменения во входных данных автоматически вызывают пересчет связанных с ними выходных данных. &lt;b&gt;Shiny Express&lt;/b&gt; — это его более легковесная версия в стиле Streamlit, позволяющая создавать приложения декларативно.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Особенности и оценка:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Сильные стороны:&lt;/b&gt; Мощная реактивная модель позволяет создавать очень эффективные приложения. Отличная интеграция с инструментами от Posit (ранее RStudio).&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Слабые стороны:&lt;/b&gt; Сообщество в Python пока меньше, чем у аналогов. Реактивная модель требует особого подхода к мышлению.&lt;/li&gt;
&lt;/ul&gt;
&lt;h5&gt;&lt;b&gt;Panel&lt;/b&gt;&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;GitHub Stars:&lt;/b&gt; 5.4k+&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Официальный сайт:&lt;/b&gt; &lt;a href="https://panel.holoviz.org/"&gt;panel.holoviz.org&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;GitHub Repo:&lt;/b&gt; &lt;a href="https://github.com/holoviz/panel"&gt;github.com/holoviz/panel&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Описание и назначение:&lt;/b&gt; Panel — это мощный фреймворк из экосистемы HoloViz. Его главная особенность — совместимость практически с любой библиотекой для визуализации в Python. Он позволяет объединять виджеты и графики в гибкие макеты.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Особенности и оценка:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Сильные стороны:&lt;/b&gt; Непревзойденная гибкость и совместимость с другими библиотеками. Отлично подходит, если вы уже используете инструменты HoloViz (hvPlot, HoloViews).&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Слабые стороны:&lt;/b&gt; Может показаться более многословным и сложным для простых задач по сравнению со Streamlit.&lt;/li&gt;
&lt;/ul&gt;
&lt;h5&gt;&lt;b&gt;Другие интересные фреймворки UI&lt;/b&gt;&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Chainlit (10k+ звезд):&lt;/b&gt; Специализированный фреймворк для быстрого создания чат-интерфейсов для LLM-агентов и приложений на базе LangChain/LlamaIndex.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Hyperdiv (900+ звезд):&lt;/b&gt; Предлагает новый подход: Python-код выполняется на сервере и мгновенно синхронизирует UI в браузере. Компоненты объявляются в простом, декларативном стиле.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Vizro (3k+ звезд):&lt;/b&gt; Конфигурационный фреймворк поверх Dash. Позволяет создавать дашборды через YAML или Pydantic-модели, что упрощает разработку.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Voilà (5.8k+ звезд):&lt;/b&gt; Превращает Jupyter-ноутбуки в самостоятельные веб-приложения, скрывая код и оставляя только виджеты и выводы ячеек.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;Категория 2: Бэкенд и MLOps (Развертывание и управление)&lt;/h4&gt;
&lt;p&gt;Эти инструменты фокусируются на серверной части, производительности и управлении жизненным циклом моделей.&lt;/p&gt;
&lt;h5&gt;&lt;b&gt;FastAPI&lt;/b&gt;&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;GitHub Stars:&lt;/b&gt; 88.2k+&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Официальный сайт:&lt;/b&gt; &lt;a href="https://fastapi.tiangolo.com/"&gt;fastapi.tiangolo.com&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;GitHub Repo:&lt;/b&gt; &lt;a href="https://github.com/tiangolo/fastapi"&gt;github.com/tiangolo/fastapi&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Описание и назначение:&lt;/b&gt; FastAPI — это современный, высокопроизводительный веб-фреймворк для создания API на Python. Он стал де-факто стандартом для развертывания моделей машинного обучения в виде REST API благодаря своей скорости, автоматической документации и использованию стандартных аннотаций типов Python.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Особенности и оценка:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Сильные стороны:&lt;/b&gt; Невероятная производительность. Автоматическая интерактивная документация (Swagger UI, ReDoc). Простота использования благодаря Pydantic и аннотациям типов.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Слабые стороны:&lt;/b&gt; Это бэкенд-фреймворк. Для создания UI его нужно использовать в связке с фронтенд-технологиями.&lt;/li&gt;
&lt;/ul&gt;
&lt;h5&gt;&lt;b&gt;vLLM&lt;/b&gt;&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;GitHub Stars:&lt;/b&gt; 54.8k+&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Официальный сайт:&lt;/b&gt; &lt;a href="https://vllm.ai"&gt;vllm.ai&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;GitHub Repo:&lt;/b&gt; &lt;a href="https://github.com/vllm-project/vllm"&gt;github.com/vllm-project/vllm&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Описание и назначение:&lt;/b&gt; vLLM — это не UI-фреймворк, а высокопроизводительная библиотека для инференса (выполнения) больших языковых моделей (LLM). Ее главная цель — максимально увеличить пропускную способность при обслуживании LLM.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Особенности и оценка:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Сильные стороны:&lt;/b&gt; Значительно ускоряет работу LLM благодаря инновационным техникам, таким как PagedAttention. Совместимость с моделями Hugging Face. Становится стандартом для быстрого self-hosting LLM.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Слабые стороны:&lt;/b&gt; Узкоспециализированный инструмент для инференса LLM.&lt;/li&gt;
&lt;/ul&gt;
&lt;h5&gt;&lt;b&gt;MLflow&lt;/b&gt;&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;GitHub Stars:&lt;/b&gt; 21.5k+&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Официальный сайт:&lt;/b&gt; &lt;a href="https://mlflow.org/"&gt;mlflow.org&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;GitHub Repo:&lt;/b&gt; &lt;a href="https://github.com/mlflow/mlflow"&gt;github.com/mlflow/mlflow&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Описание и назначение:&lt;/b&gt; MLflow — это платформа с открытым исходным кодом для управления полным жизненным циклом машинного обучения. Он включает в себя компоненты для отслеживания экспериментов (Tracking), упаковки кода (Projects), управления моделями (Models) и их развертывания (Registry).&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Особенности и оценка:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Сильные стороны:&lt;/b&gt; Комплексное решение для MLOps. Помогает стандартизировать и воспроизводить ML-эксперименты. Интегрируется с большинством ML-библиотек.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Слабые стороны:&lt;/b&gt; Требует настройки и внедрения в рабочий процесс. Может быть избыточным для небольших проектов.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;Категория 3: Интерактивные вычисления и отчетность&lt;/h4&gt;
&lt;p&gt;Эти инструменты меняют представление о статических отчетах и ноутбуках, делая их интерактивными и воспроизводимыми.&lt;/p&gt;
&lt;h5&gt;&lt;b&gt;Quarto&lt;/b&gt;&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;GitHub Stars:&lt;/b&gt; 4.7k+ (CLI)&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Официальный сайт:&lt;/b&gt; &lt;a href="https://quarto.org/"&gt;quarto.org&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;GitHub Repo:&lt;/b&gt; &lt;a href="https://github.com/quarto-dev/quarto-cli"&gt;github.com/quarto-dev/quarto-cli&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Описание и назначение:&lt;/b&gt; Quarto — это система публикации научных и технических документов нового поколения от Posit. Она позволяет создавать динамические документы и презентации из Jupyter-ноутбуков или простого Markdown, смешанного с кодом на Python, R или Julia.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Особенности и оценка:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Сильные стороны:&lt;/b&gt; Поддерживает множество форматов вывода (HTML, PDF, DOCX, презентации и др.). Языковая агностичность. Позволяет создавать красивые, профессиональные и воспроизводимые отчеты.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Слабые стороны:&lt;/b&gt; В первую очередь это инструмент для публикации, а не для создания интерактивных real-time приложений.&lt;/li&gt;
&lt;/ul&gt;
&lt;h5&gt;&lt;b&gt;Marimo&lt;/b&gt;&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;GitHub Stars:&lt;/b&gt; 15.3k+&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Официальный сайт:&lt;/b&gt; &lt;a href="https://marimo.io/"&gt;marimo.io&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;GitHub Repo:&lt;/b&gt; &lt;a href="https://github.com/marimo-team/marimo"&gt;github.com/marimo-team/marimo&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Описание и назначение:&lt;/b&gt; Marimo — это реактивная среда для Python, которая решает многие проблемы традиционных Jupyter-ноутбуков. В Marimo ноутбук — это интерактивное веб-приложение. Изменение в одной ячейке автоматически обновляет все зависимые ячейки.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Особенности и оценка:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Сильные стороны:&lt;/b&gt; Реактивность обеспечивает консистентность состояния. Встроенные UI-элементы. Ноутбуки легко экспортируются в виде приложений.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Слабые стороны:&lt;/b&gt; Новый инструмент с растущим, но пока небольшим сообществом. Отличается от привычного рабочего процесса в Jupyter.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;Как выбрать подходящий инструмент?&lt;/h4&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Для быстрого прототипа или демо модели:&lt;/b&gt; &lt;b&gt;Streamlit&lt;/b&gt; или &lt;b&gt;Gradio&lt;/b&gt;.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Для сложного, кастомизированного корпоративного дашборда:&lt;/b&gt; &lt;b&gt;Dash&lt;/b&gt; или &lt;b&gt;Solara&lt;/b&gt;.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Для создания бэкенда и API для вашей модели:&lt;/b&gt; &lt;b&gt;FastAPI&lt;/b&gt;.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Для максимальной производительности при развертывании LLM:&lt;/b&gt; &lt;b&gt;vLLM&lt;/b&gt;.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Для построения полноценного MLOps-цикла:&lt;/b&gt; &lt;b&gt;MLflow&lt;/b&gt;.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Для создания чат-бота на базе LLM:&lt;/b&gt; &lt;b&gt;Chainlit&lt;/b&gt;.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Для создания красивых, воспроизводимых отчетов и статей:&lt;/b&gt; &lt;b&gt;Quarto&lt;/b&gt;.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Если вы хотите попробовать реактивный, state-of-the-art ноутбук:&lt;/b&gt; &lt;b&gt;Marimo&lt;/b&gt;.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Если вы из мира R или вам нравится реактивная парадигма:&lt;/b&gt; &lt;b&gt;Shiny for Python&lt;/b&gt;.&lt;/li&gt;
&lt;/ul&gt;
</description>
</item>

<item>
<title>Тетрадки наше всё – marimo.io и уточкаdb</title>
<guid isPermaLink="false">260</guid>
<link>https://gavrilov.info/all/tetradki-nashe-vsyo-marimo-io-i-utochkadb/</link>
<pubDate>Thu, 07 Aug 2025 22:34:19 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/tetradki-nashe-vsyo-marimo-io-i-utochkadb/</comments>
<description>
&lt;p&gt;marimo is an open-source reactive notebook for Python — reproducible, Git-friendly, AI-native, SQL built-in, executable as a script, shareable as an app.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Screenshot-from-2025-08-07-21-49-13.png" width="1189" height="397" alt="" /&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Screenshot-from-2025-08-07-21-47-55.png" width="942" height="667" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Ставим скорее..&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;pip install marimo &amp;amp;&amp;amp; marimo tutorial intro&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;Ну и small data тоже любит тетрадки &lt;a href="https://duckdb.org/docs/stable/guides/python/marimo"&gt;https://duckdb.org/docs/stable/guides/python/marimo&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;в общим долго рассказывать, но штука модная и крутая :) потом еще расскажу&lt;/p&gt;
&lt;p&gt;про bi as a code можно посмотреть тут: &lt;a href="https://gavrilov.info/all/samye-populyarnye-instrumenty-biznes-analitiki-na-osnove-koda-ob/"&gt;https://gavrilov.info/all/samye-populyarnye-instrumenty-biznes-analitiki-na-osnove-koda-ob/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;А тут есть пример использования  iceberg каталога R2 c Marimo &lt;a href="https://developers.cloudflare.com/r2/data-catalog/get-started/"&gt;https://developers.cloudflare.com/r2/data-catalog/get-started/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;А так в него можно добавить AI&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;UW PICO 5.09                          File: /Users/yuriygavrilov/.config/marimo/marimo.toml                             

[completion]
activate_on_typing = true
copilot = &amp;quot;custom&amp;quot;
api_key = &amp;quot;sk-GIkXXXXXXXXXX&amp;quot;
model = &amp;quot;openai/o1&amp;quot;
base_url = &amp;quot;https://openai.api.proxyapi.ru/v1&amp;quot;&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;и чуть ниже так..&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;[ai.open_ai]
api_key = &amp;quot;sk-GIkXXXXXXXXXX&amp;quot;
model = &amp;quot;openai/o1&amp;quot;
base_url = &amp;quot;https://openai.api.proxyapi.ru/v1&amp;quot;&lt;/code&gt;&lt;/pre&gt;&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-08-11-v-22.11.47.png" width="1580" height="1186" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Но как полечить это я еще не разгадал:&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;[E 250811 22:03:05 tools:173] Failed to get MCP tools: mcp is required for MCP server connections.&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;а пока усложняем задачу.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-08-11-v-22.37.37.png" width="1586" height="1860" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Хех, работает :)&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-08-11-v-22.38.17.png" width="1598" height="988" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Кстати уже писал про Bi as Code тут &lt;a href="https://gavrilov.info/all/samye-populyarnye-instrumenty-biznes-analitiki-na-osnove-koda-ob/"&gt;https://gavrilov.info/all/samye-populyarnye-instrumenty-biznes-analitiki-na-osnove-koda-ob/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Но будет полезно еще почитать по WASM контейнеры и запуст их в браузере, так как вся эта история на них хорошо работает, Evidence.dev например.&lt;/p&gt;
&lt;p&gt;UPD: &lt;a href="https://a.gavrilov.info/my_app2/dist/"&gt;https://a.gavrilov.info/my_app2/dist/&lt;/a&gt; – тут можно посмотреть экспортированную демо тетрадку в формате wasm с хостингом на s3&lt;/p&gt;
&lt;p&gt;Экспортируются тетрадки так:&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;uv run  marimo export html-wasm markdown-format1.md -o my_app2/dist --include-cloudflare --mode run&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;Потом просто надо загрузить папку my_app2 в нужную директорию в все будет работать.&lt;/p&gt;
&lt;p&gt;А вот еще пример генерации кода c ИИ&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-08-17-v-10.27.34.png" width="2156" height="1600" alt="" /&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-08-17-v-10.30.33.png" width="1148" height="1508" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Тут можно посмотреть пример барчата &lt;a href="https://a.gavrilov.info/my_app3/dist/"&gt;https://a.gavrilov.info/my_app3/dist/&lt;/a&gt;&lt;/p&gt;
</description>
</item>

<item>
<title>OpenAI OSS: можно качать</title>
<guid isPermaLink="false">258</guid>
<link>https://gavrilov.info/all/openai-oss-mozhno-kachat/</link>
<pubDate>Tue, 05 Aug 2025 21:40:28 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/openai-oss-mozhno-kachat/</comments>
<description>
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-08-05-v-21.34.50.png" width="1878" height="1180" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;&lt;a href="https://openai.com/open-models/"&gt;https://openai.com/open-models/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Для большой модели надо h100, а маленькая попроще и требует всего 16gb.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/telegram-cloud-photo-size-2-5231372004953823349-y.jpg" width="1280" height="1200" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Ну и главное: удаляем сразу, если заметим, что клянчит деньги и просит купить меня :)&lt;/p&gt;
&lt;p&gt;А вот квенчик красавчик: ai molodca)&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-08-05-v-21.38.36.png" width="1218" height="746" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;но он знал ))&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-08-05-v-21.42.51.png" width="852" height="504" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;почти&lt;/p&gt;
&lt;p&gt;trinking...&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;...
But the trick is that when &amp;quot;А&amp;quot; fell, it becomes &amp;quot;а&amp;quot; (lowercase?), but maybe not. Wait, another angle: in Russian, the phrase &amp;quot;А упала&amp;quot; could be a pun. Because &amp;quot;упала&amp;quot; means fell, but &amp;quot;а&amp;quot; is also the word for &amp;quot;and&amp;quot; in some contexts, but here it's the letter. Wait, maybe the answer is that only the &amp;quot;и&amp;quot; (which means &amp;quot;and&amp;quot;) is left? Because the sentence is &amp;quot;А и Б сидели на трубе&amp;quot;: A and B were sitting on the pipe. So the letters A, the word &amp;quot;и&amp;quot; (and), and B. So if A fell and B disappeared, then the &amp;quot;и&amp;quot; is left. Because the &amp;quot;и&amp;quot; is part of the phrase. Wait, that's a common riddle. Let me confirm.
...&lt;/code&gt;&lt;/pre&gt;</description>
</item>

<item>
<title>LLM в продуктивной среде – Yadro’нные технологии</title>
<guid isPermaLink="false">257</guid>
<link>https://gavrilov.info/all/llm-v-produktivnoy-srede-yadronnye-tehnologii/</link>
<pubDate>Sun, 03 Aug 2025 23:48:27 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/llm-v-produktivnoy-srede-yadronnye-tehnologii/</comments>
<description>
&lt;p&gt;Недавняя статья компании YADRO на Хабре, “Где живут LLM”, стала редким и ценным окном в реальную практику построения корпоративного инференс-кластера. Команда не только поделилась своей архитектурой, но и честно рассказала о проблемах, что делает их опыт вдвойне полезным. Спасибо им за это!&lt;/p&gt;
&lt;p&gt; 🚀🚀🚀 &lt;a href="https://habr.com/ru/companies/yadro/articles/930304/"&gt;https://habr.com/ru/companies/yadro/articles/930304/&lt;/a&gt;&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/telegram-cloud-photo-size-2-5224277706823301943-y.jpg" width="1024" height="1024" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Их кейс можно брать за основу, давайте разберем его и проведем небольшой анализ стека для работы с LLM — от низкоуровневых движков на GPU до low-code платформ для конечных пользователей. Этот разбор покажет, почему определенные технологические решения становятся стандартом и что необходимо для построения не просто работающей, а по-настоящему эффективной и масштабируемой AI-экосистемы.&lt;/p&gt;
&lt;h5&gt;Фундамент: Архитектура инференс-кластера&lt;/h5&gt;
&lt;p&gt;В основе кластера YADRO лежат проверенные и мощные компоненты, ставшие индустриальным стандартом:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Оборудование:&lt;/b&gt; Серверы с NVIDIA H100.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Оркестрация:&lt;/b&gt; Kubernetes.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Движок инференса:&lt;/b&gt; &lt;b&gt;vLLM&lt;/b&gt;.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Ключевым и очень показательным решением стал выбор &lt;b&gt;vLLM&lt;/b&gt; вместо, казалось бы, более нативного для NVIDIA &lt;b&gt;Triton Inference Server&lt;/b&gt;. Аргументация YADRO проста и прагматична: с vLLM «намного проще добавлять новые модели», и он «изначально предоставляет OpenAI-совместимые REST API».&lt;/p&gt;
&lt;p&gt;Это идеально отражает главный тренд в LLM Serving. Triton — это универсальная рабочая лошадка, мощная, но требующая серьезной подготовки: конвертации моделей в форматы вроде TensorRT и часто создания дополнительной «обвязки» для предоставления удобного API. vLLM, напротив, это специализированный инструмент, заточенный именно под LLM. Благодаря своей ключевой инновации — &lt;b&gt;PagedAttention&lt;/b&gt;, которая кардинально оптимизирует управление памятью для KV-кэша, — он обеспечивает высочайшую пропускную способность и простоту использования «из коробки».&lt;/p&gt;
&lt;h5&gt;Средний слой: Production-ready операции и масштабирование&lt;/h5&gt;
&lt;p&gt;Переход от тестов к эксплуатации всегда вскрывает «узкие места». Опыт YADRO — прекрасное тому подтверждение.&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Проблема шлюза (Gateway):&lt;/b&gt; Команда обнаружила, что популярный прокси &lt;b&gt;LiteLLM&lt;/b&gt;, хотя и удобен для старта, становится узким местом при нагрузке выше 50 одновременных запросов. Их решение — разработка собственного `LLM Gateway` на Go — является абсолютно верным шагом для высоконагруженных систем. Такой шлюз берет на себя аутентификацию, логирование, rate-limiting и, что самое главное, умную маршрутизацию запросов. Для тех, кто не готов к собственной разработке, в экосистеме появляются готовые решения, такие как &lt;b&gt;vllm-router&lt;/b&gt;, специально созданные для балансировки нагрузки между фермами vLLM-инстансов. &lt;a href="https://docs.vllm.ai/en/stable/deployment/integrations/production-stack.html"&gt;https://docs.vllm.ai/en/stable/deployment/integrations/production-stack.html&lt;/a&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;&lt;b&gt;Продвинутое масштабирование в Kubernetes:&lt;/b&gt; В статье упоминается горизонтальное автомасштабирование (HPA) по CPU. Для GPU-сервисов это неэффективно. Современный подход требует более точных триггеров:
&lt;ul&gt;
  &lt;li&gt;Масштабирование по GPU:** Использование `DCGM Exporter` от NVIDIA для сбора метрик утилизации GPU и настройка HPA или KEDA (Kubernetes Event-driven Autoscaling) по этим данным.&lt;/li&gt;
  &lt;li&gt;Масштабирование по очереди:** vLLM предоставляет метрику `vllm_requests_waiting` (количество запросов в очереди). Это лучший показатель реальной нагрузки: как только очередь растет, система добавляет новые поды с моделями.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="3"&gt;
&lt;li&gt;&lt;b&gt;Мониторинг (Production Metrics):&lt;/b&gt; Для стабильной работы 24/7 критически важно отслеживать специфичные метрики vLLM в реальном времени через Prometheus и Grafana:
&lt;ul&gt;
  &lt;li&gt;Производительность:** Time to First Token (TTFT) и Time per Output Token (TPOT).&lt;/li&gt;
  &lt;li&gt;Нагрузка:** `vllm_requests_running` (в обработке) и `vllm_requests_waiting` (в очереди).&lt;/li&gt;
  &lt;li&gt;Состояние памяти:** `vllm_gpu_cache_usage_perc` (процент использования KV-кэша). Рост этой метрики — прямой предвестник ошибки нехватки памяти (OOM).&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;h5&gt;Верхний уровень: Платформы и интерфейсы для пользователей&lt;/h5&gt;
&lt;p&gt;Самый мощный бэкенд бесполезен без удобного доступа. YADRO упоминают, что предоставили пользователям интерфейсы через &lt;b&gt;Dify&lt;/b&gt; и собственный WebUI, что выводит нас на уровень приложений и пользовательского опыта.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Dify: Low-code платформа для создания AI-приложений.&lt;/b&gt; Dify — это не просто чат, а открытая LLM Ops платформа, позволяющая быстро создавать и развертывать AI-приложения. С помощью визуального конструктора даже нетехнические специалисты могут собирать сложные воркфлоу, включая чат-ботов, RAG-системы (поиск по базам знаний) и AI-агентов. Dify подключается к инференс-кластеру по OpenAI API и служит мостом между мощным бэкендом и конечными бизнес-задачами.&lt;/li&gt;
&lt;/ul&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Open WebUI: Персональный и безопасный доступ к моделям.&lt;/b&gt; Если Dify — это конструктор приложений, то &lt;b&gt;Open WebUI&lt;/b&gt; — это универсальный и безопасный «кабинет» для прямого взаимодействия с моделями. Как отмечается в документации, это «расширяемая, многофункциональная и удобная платформа для самостоятельного хостинга, предназначенная для работы полностью в автономном режиме» &lt;a href="https://docs.vllm.ai/en/latest/deployment/frameworks/open-webui.html"&gt;docs.vllm.ai&lt;/a&gt;). Open WebUI предоставляет привычный интерфейс в стиле ChatGPT, но с расширенными возможностями: работа с локальными документами (RAG), веб-браузинг в чатах и управление доступом для команд — всё это в защищенном контуре компании &lt;a href="https://www.repocloud.io/details/?app_id=271"&gt;https://www.repocloud.io/details/?app_id=271&lt;/a&gt;.&lt;/li&gt;
&lt;/ul&gt;
&lt;h5&gt;Инструменты для разработчиков: Интеграция в рабочий процесс&lt;/h5&gt;
&lt;p&gt;Чтобы LLM стали повседневным инструментом, их нужно встроить в рабочую среду разработчиков. YADRO верно отмечают ключевые компоненты этого уровня:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;&lt;a href="https://github.com/continuedev/continue"&gt;Continue.dev&lt;/a&gt;:&lt;/b&gt; Open-source расширение для VS Code/JetBrains, которое превращает внутренний инференс-кластер в полноценного AI-ассистента, работающего прямо в IDE.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;&lt;a href="https://openai.github.io/openai-agents-python/"&gt;OpenAI SDK&lt;/a&gt; и &lt;a href="https://docs.litellm.ai/docs/proxy/demo"&gt;LiteLLM&lt;/a&gt;:&lt;/b&gt; Использование этих библиотек на стороне клиентских приложений — золотой стандарт. Они позволяют разработчикам абстрагироваться от деталей реализации бэкенда и работать с унифицированным, удобным API.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Кстати у litellm.ai есть демка их прокси сервера заходим Username: admin Password: sk-1234&lt;br /&gt;
&lt;a href="https://demo.litellm.ai/ui"&gt;https://demo.litellm.ai/ui&lt;/a&gt;&lt;/p&gt;
&lt;h4&gt;Итоги и выводы&lt;/h4&gt;
&lt;p&gt;Опыт YADRO — это отличный срез современной инженерной практики в области LLM. Его комплексный анализ позволяет сформировать полную картину production-ready AI-экосистемы, которая состоит из нескольких ключевых слоев:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Бэкенд:&lt;/b&gt; Специализированные движки (&lt;b&gt;vLLM&lt;/b&gt;) на &lt;b&gt;Kubernetes&lt;/b&gt; стали де-факто стандартом для высокопроизводительного инференса.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;API и Ops:&lt;/b&gt; &lt;b&gt;OpenAI-совместимый API&lt;/b&gt; — это универсальный «язык» для всех компонентов системы. Для масштабирования необходим кастомный &lt;b&gt;Gateway/Router&lt;/b&gt; (как у YADRO) и продвинутое &lt;b&gt;автомасштабирование&lt;/b&gt; по метрикам GPU и длине очереди.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Приложения и GUI:&lt;/b&gt; Low-code платформы (&lt;b&gt;Dify&lt;/b&gt;) позволяют быстро создавать бизнес-решения, а интерфейсы вроде &lt;b&gt;Open WebUI&lt;/b&gt; или &lt;b&gt;&lt;a href="https://github.com/danny-avila/LibreChat"&gt;LibreChat&lt;/a&gt;&lt;/b&gt; предоставляют сотрудникам безопасный и многофункциональный доступ к моделям.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;DevX (Developer Experience):&lt;/b&gt; Интеграция в IDE (&lt;b&gt;Continue.dev&lt;/b&gt;) и использование стандартизированных &lt;b&gt;SDK&lt;/b&gt; делают LLM по-настоящему удобным инструментом для разработчиков.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Таким образом, создание «дома для LLM» — это далеко не только развертывание моделей на GPU. Это выстраивание целостной, многоуровневой системы, где каждый слой решает свою задачу, обеспечивая производительность, надежность и, в конечном итоге, ценность для бизнеса.&lt;/p&gt;
&lt;h4&gt;Ссылки Основная: &lt;a href="https://habr.com/ru/companies/yadro/articles/930304/"&gt;https://habr.com/ru/companies/yadro/articles/930304/&lt;/a&gt;&lt;/h4&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href="https://docs.vllm.ai/en/latest/deployment/frameworks/open-webui.html"&gt;https://docs.vllm.ai/en/latest/deployment/frameworks/open-webui.html&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="https://www.repocloud.io/details/?app_id=271"&gt;https://www.repocloud.io/details/?app_id=271&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="https://docs.digitalocean.com/products/marketplace/catalog/open-webui/"&gt;https://docs.digitalocean.com/products/marketplace/catalog/open-webui/&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="https://www.pondhouse-data.com/blog/integrating-n8n-with-open-webui"&gt;https://www.pondhouse-data.com/blog/integrating-n8n-with-open-webui&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="https://www.requesty.ai/blog/openwebui-vs-librechat-which-self-hosted-chatgpt-ui-is-right-for-you"&gt;https://www.requesty.ai/blog/openwebui-vs-librechat-which-self-hosted-chatgpt-ui-is-right-for-you&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="https://github.com/danny-avila/LibreChat"&gt;LibreChat &lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
</description>
</item>

<item>
<title>Эволюция и будущее оркестрации ИИ</title>
<guid isPermaLink="false">250</guid>
<link>https://gavrilov.info/all/evolyuciya-i-buduschee-orkestracii-ii/</link>
<pubDate>Thu, 03 Jul 2025 00:53:08 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/evolyuciya-i-buduschee-orkestracii-ii/</comments>
<description>
&lt;p&gt;Давайте проследим историю оркестрации и выясним, почему она стала обязательной для будущего ИИ и агентов.&lt;/p&gt;
&lt;p&gt;Оригинал тут: &lt;a href="https://unionailoop.substack.com/p/the-evolution-and-future-of-ai-orchestration"&gt;https://unionailoop.substack.com/p/the-evolution-and-future-of-ai-orchestration&lt;/a&gt;&lt;br /&gt;
2 июля 2025 г. – Кетан Умаре — генеральный директор и соучредитель Union.ai. Ранее он занимал несколько руководящих должностей в Lyft, Oracle и Amazon, работая с облачными технологиями, распределенными системами хранения данных, картографией и системами машинного обучения.&lt;/p&gt;
&lt;p&gt;Термин “оркестрация” значительно эволюционировал за последнее десятилетие. То, что начиналось как способ упорядочивания микросервисов и задач обработки данных, превратилось в ключевой фактор для современных приложений, охватывающий системы от традиционных бэкендов до высокодинамичных, интеллектуальных рабочих нагрузок на агентах.&lt;/p&gt;
&lt;p&gt;Сегодня мы наблюдаем ранние дни нового вида оркестрации, которая не просто перемещает данные или вызывает сервисы, но думает, адаптируется и реагирует в реальном времени. Давайте проследим историю оркестрации и выясним, почему она стала обязательной для будущего ИИ и агентов.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-194.png" width="1456" height="971" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Настоящим узким местом являются не модели или вычисления – это мы.&lt;/p&gt;
&lt;p&gt;Модели переходят от “что запускается дальше” к “что думает дальше”, и это заставляет формироваться новый, мощный слой наших технологических стеков. Но чтобы понять, что неизбежно, нам нужно понять, что привело нас сюда.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;1. Зарождение оркестрации: ETL и микросервисы&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;2012 – ETL&lt;/b&gt;&lt;br /&gt;
Оркестрация впервые появилась для обеспечения ETL (извлечение, преобразование, загрузка), где планировщики, такие как Airflow, управляли приемом и преобразованием данных на больших хранилищах данных.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-195.png" width="1094" height="537" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;&lt;b&gt;Диаграмма: Процесс ETL&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Извлечение:** Извлекает и проверяет данные из различных источников.&lt;/li&gt;
&lt;li&gt;Преобразование:** Обрабатывает и организует извлеченные данные, чтобы сделать их пригодными для использования.&lt;/li&gt;
&lt;li&gt;Загрузка:** Перемещает преобразованные данные в репозиторий данных.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;2014 – Микросервисы&lt;/b&gt;&lt;br /&gt;
Поскольку использование постоянно растущих объемов данных стало более критичным для инноваций, возникла потребность в оркестрации микросервисов, где системы, такие как AWS Step Functions или Cadence, обеспечивали надежное выполнение вызовов сервисов и повторные попытки в транзакционных системах.&lt;/p&gt;
&lt;p&gt;На ранних этапах оркестрация в основном сосредоточивалась на упорядочивании или определении, когда и как вызывать функцию, запускать скрипт или запускать контейнер. Трудоёмкие вычисления перекладывались на традиционные вычислительные движки, такие как Spark, AWS Batch, GCP Cloud Run или, позже, K8s. Оркестрация не касалась вычислений, и ей это было не нужно.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;2. Машинное обучение: оркестрация встречается с вычислениями&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;2017 – ML-конвейеры&lt;/b&gt;&lt;br /&gt;
ML привнесло новые требования: дорогие вычисления и отказоустойчивость.&lt;/p&gt;
&lt;p&gt;В отличие от микросервисов или пакетного ETL, рабочие процессы ML представляют собой долгосрочные процессы, тесно связанные с инфраструктурой. Графические процессоры, на которые сейчас в большей степени полагаются, особенно для нужд обучения ML, являются более дорогими, чем центральные процессоры. Обучение моделей, их оценка, настройка гиперпараметров — все это требует динамического распределения ресурсов GPU или CPU. А поскольку эти процессы занимают гораздо больше времени, отказоустойчивое восстановление после сбоев стало гораздо важнее.&lt;/p&gt;
&lt;p&gt;Эти потребности породили оркестраторы ML-конвейеров, такие как Flyte, которые до сих пор являются открытыми решениями для оркестрации, на которые полагается большинство команд.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;2021 – Управляемая оркестрация ML&lt;/b&gt;&lt;br /&gt;
По мере того как оркестрация ML становилась более сложной, она ложилась более тяжелым бременем на команды ML, данных и платформ, которым нужно было поддерживать инфраструктуру. Им нужны были системы оркестрации, которые определяли DAG (ориентированный ациклический граф), выделяли ресурсы, управляли жизненным циклом задач и чисто масштабировались до нуля.&lt;/p&gt;
&lt;p&gt;Платформы оркестрации, такие как Union.ai, Prefect и Airflow, появились для снятия инфраструктурной нагрузки с оркестрации. С появлением эпохи ИИ они стали гораздо популярнее для команд, создающих рабочие процессы ИИ/ML, как критически важную часть своей работы.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-196.png" width="1456" height="817" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;&lt;b&gt;3. Агентные системы: оркестрация в эпоху ИИ&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;2025 – ИИ и агентная оркестрация&lt;/b&gt;&lt;br /&gt;
Сейчас мы вступаем в новую фазу: оркестрацию интеллектуальных агентов и систем ИИ.&lt;/p&gt;
&lt;p&gt;Агенты — это автономные, способные сохранять состояние программы (часто управляемые большими языковыми моделями), которые могут планировать, рассуждать и действовать. И оркестрация критически важна для их успеха в масштабе. Почему?&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Они зависят от интеграций.&lt;/b&gt; Агенты часто полагаются на внешние инструменты (API, базы данных, модели), и эти взаимодействия должны управляться.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Они принимают динамические решения.&lt;/b&gt; Агенты часто уточняют результаты за несколько проходов, подобно настройке гиперпараметров или рекурсивному исключению признаков в ML.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Они делегируют.&lt;/b&gt; Один агент может вызывать другого, который может разветвляться на новые инструменты или рабочие процессы.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Они требуют вычислений.&lt;/b&gt; Рассмотрим агентов, которые решают парсить веб или выполнять код. Если мы думаем об агентах как о программистах, то быстро понимаем, что оркестрация без доступа к вычислениям ограничивает их автономию.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Современные платформы разработки ИИ должны быть способны оркестрировать эти стохастические системы от начала до конца и динамически, а не статически. В противном случае мы лишаем агентов свободы действий.&lt;/p&gt;
&lt;p&gt;Это отражает идеи Anthropic: создание эффективных агентов означает управление инструментами, адаптацию стратегий и надежное оркестрирование долгосрочных фоновых задач. Оркестрация здесь — это не статический DAG. Это динамический цикл.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-197.png" width="914" height="1193" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;&lt;b&gt;Будущая инфраструктура разработки ИИ&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;“По некоторым оценкам, более 80% проектов ИИ терпят неудачу – это вдвое превышает процент неудач проектов в области информационных технологий, которые не связаны с ИИ”. – RAND&lt;/p&gt;
&lt;p&gt;По мере созревания ML и агентных систем в 2025 году и далее, команды, создающие их, обнаруживают, что общие потребности в разработке ИИ выходят на первый план. Это не гипотетические проблемы. Мы видели их вживую у реальных клиентов и в продуктах, которые они создают.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Динамические рабочие процессы:** в отличие от статических DAG, динамические рабочие процессы позволяют агентам и системам ИИ принимать решения на лету во время выполнения.&lt;/li&gt;
&lt;li&gt;Гибкая интеграция инфраструктуры:** оркестрация должна происходить по облакам и кластерам, в некоторых случаях динамически переключаясь на источник наиболее доступных вычислений.&lt;/li&gt;
&lt;li&gt;Кросс-командное выполнение:** эти платформы должны объединять отдельных лиц, команды и агентов в единой среде разработки совместно, безопасно и надежно.&lt;/li&gt;
&lt;li&gt;Наблюдаемость, надежность и управление:** агенты и рабочие процессы могут работать автономно в черном ящике. Платформы разработки ИИ должны обеспечивать прозрачность для рассуждений, сбоев, происхождения данных и использования ресурсов.&lt;/li&gt;
&lt;li&gt;Масштаб:** большие данные становятся больше. Вычислительная мощность востребована как никогда. Платформы должны надежно справляться с требованиями к масштабированию, присущими этим системам.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Заключение:&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Слой инфраструктуры разработки ИИ&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Мы вступаем в мир, где оркестрация — это не просто “что запускается дальше”, но “что думает дальше”.&lt;/p&gt;
&lt;p&gt;Эволюция от статических ETL-конвейеров к динамическим ML-рабочим процессам теперь совпала с ростом автономных агентов, и это сближение раскрывает фундаментальную истину.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Агенты и современные ML-системы требуют нового слоя в наших технологических стеках: инфраструктуры разработки ИИ.&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Агенты и ML-системы по своей природе стохастичны, принимают решения во время выполнения на основе обрабатываемых данных, требуют динамического выделения вычислений и включают итеративное уточнение. Что наиболее важно, оба требуют оркестрации, которая может адаптироваться к изменяющимся условиям, а не просто выполнять предопределенные, линейные шаги.&lt;/p&gt;
&lt;p&gt;Это схождение указывает на единую, унифицированную абстракцию оркестрации, которая может обеспечить то, что так отчаянно необходимо обеим областям: надежность для долгосрочных процессов, которые не могут себе позволить терять состояние, динамическое обеспечение вычислений, масштабирующихся в соответствии со спросом, и отказоустойчивость, которая изящно обрабатывает неизбежные сбои в сложных, распределенных системах.&lt;/p&gt;
&lt;p&gt;Будущее оркестрации обеспечивает основу для слоя инфраструктуры разработки ИИ, будучи:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Динамичной** – адаптирующей структуру рабочего процесса на основе условий выполнения.&lt;/li&gt;
&lt;li&gt;Эфемерной** – запускающей и останавливающей ресурсы по мере необходимости в рабочих процессах.&lt;/li&gt;
&lt;li&gt;Мультиагентной и мультичеловеческой** – оркеструющей сотрудничество между автономными системами и командами.&lt;/li&gt;
&lt;li&gt;Надежной и наблюдаемой** – обеспечивающей видимость и восстановление для систем, которые работают автономно.&lt;/li&gt;
&lt;li&gt;Безопасной** – управляющей доступом и выполнением в различных распределенных рабочих нагрузках.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Оркестрация становится центральной нервной системой систем ИИ, питая этот новый слой инфраструктуры разработки ИИ в наших технологических стеках.&lt;/p&gt;
&lt;p&gt;Вопрос больше не “как запустить этот конвейер?”, а “как позволить системам решать, что запускать, когда запускать и как делать это надежно в масштабе?”&lt;/p&gt;
</description>
</item>

<item>
<title>Анализ: Orange Pi AI Studio Pro vs. NVIDIA DGX Spark (Project DIGITS)</title>
<guid isPermaLink="false">247</guid>
<link>https://gavrilov.info/all/analiz-orange-pi-ai-studio-pro-vs-nvidia-dgx-spark-project-digit/</link>
<pubDate>Sun, 22 Jun 2025 18:29:39 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/analiz-orange-pi-ai-studio-pro-vs-nvidia-dgx-spark-project-digit/</comments>
<description>
&lt;p&gt;Битва персональных AI-суперкомпьютеров  ( подготовил DeepSeek 😁 и спасибо ему за это )&lt;br /&gt;
Если чего, то эти игрушки для подходят для запуска средних моделей у себя дома. Железа должно хватит.&lt;br /&gt;
Впрочем битва только начинается. посмотрим, что еще выйдет. А пока наслаждаемся тем, что есть.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-06-22-v-18.22.32.png" width="2460" height="1178" alt="" /&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-06-22-v-18.23.22.png" width="2512" height="1246" alt="" /&gt;
&lt;/div&gt;
&lt;h4&gt;&lt;b&gt;Введение: Эра доступного AI-железа&lt;/b&gt;&lt;/h4&gt;
&lt;p&gt;Революция генеративного ИИ сместила фокус с облачных кластеров на персональные устройства. В 2025 году два решения претендуют на звание «AI-суперкомпьютер на столе»: &lt;b&gt;NVIDIA DGX Spark&lt;/b&gt; (ранее Project DIGITS) и &lt;b&gt;Orange Pi AI Studio Pro&lt;/b&gt;. Оба обещают экзафлопсную производительность, но с разной философией. Разберем их детально, используя данные из официальных анонсов, тестовых обзоров и сообществ &lt;a href="https://habr.com/ru/companies/bothub/news/872002"&gt;https://habr.com/ru/companies/bothub/news/872002&lt;/a&gt; и &lt;a href="https://www.reddit.com/r/LocalLLaMA/comments/1im141p/orange_pi_ai_studio_pro_mini_pc_with_408gbs."&gt;https://www.reddit.com/r/LocalLLaMA/comments/1im141p/orange_pi_ai_studio_pro_mini_pc_with_408gbs.&lt;/a&gt;&lt;/p&gt;
&lt;hr /&gt;
&lt;h4&gt;&lt;b&gt;1. Аппаратная платформа: Архитектура и Производительность&lt;/b&gt;&lt;/h4&gt;
&lt;h5&gt;&lt;b&gt;NVIDIA DGX Spark&lt;/b&gt;&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Чипсет&lt;/b&gt;: GB10 Grace Blackwell Superchip – гибрид 20-ядерного ARM-процессора (Cortex-X925 + Cortex-A725) и GPU Blackwell с Tensor Core 5-го поколения .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Память&lt;/b&gt;: 128 ГБ LPDDR5X с единым адресным пространством (CPU+GPU), что критично для обработки моделей до 200B параметров без перегрузок .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Производительность&lt;/b&gt;: 1 PFLOPS при FP4 с поддержкой спарсности. Для моделей &gt;200B параметров два устройства связываются через ConnectX-7, достигая 405B .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Энергоэффективность&lt;/b&gt;: Потребляет ~120–240 Вт, работает от розетки 220 В .&lt;/li&gt;
&lt;/ul&gt;
&lt;h5&gt;&lt;b&gt;Orange Pi AI Studio Pro&lt;/b&gt;&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Чипсет&lt;/b&gt;: Huawei Ascend 310s с NPU, заявленная производительность – &lt;b&gt;352 TOPS&lt;/b&gt; (INT8) в Pro-версии .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Память&lt;/b&gt;: До 192 ГБ LPDDR4X (в конфигурации Pro), но без унификации. Пользователи Reddit отмечают проблемы с пропускной способностью при загрузке LLM &gt;70B параметров .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Масштабируемость&lt;/b&gt;: Нет аналога NVLink. Для больших моделей требуется ручная оптимизация через swap-файлы .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Охлаждение&lt;/b&gt;: Инженерные образцы склонны к перегреву при длительной нагрузке, что требует дополнительного кулера .&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Резюме&lt;/b&gt;: DGX Spark выигрывает в балансе памяти и вычислений, Orange Pi предлагает сырую мощность TOPS, но страдает от архитектурных ограничений.&lt;/p&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;&lt;b&gt;2. Программная экосистема: Готовность к работе&lt;/b&gt;&lt;/h4&gt;
&lt;h5&gt;&lt;b&gt;NVIDIA&lt;/b&gt;&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Стек&lt;/b&gt;: Полная предустановка DGX OS + CUDA, NeMo, RAPIDS, поддержка PyTorch/Jupyter. Бесшовная интеграция с NGC-каталогом и облаком DGX .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Развертывание&lt;/b&gt;: Локальная тонкая настройка (fine-tuning) моделей до 70B параметров с последующим деплоем в дата-центр без переписывания кода .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Для разработчиков&lt;/b&gt;: Поддержка Windows через WSL2, что упрощает миграцию с ПК .&lt;/li&gt;
&lt;/ul&gt;
&lt;h5&gt;&lt;b&gt;Orange Pi&lt;/b&gt;&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;ПО&lt;/b&gt;: Базовые образы Ubuntu/OpenEuler. Для работы AI требуется CANN-Toolkit (только через Docker), установка которого занимает 5–6 часов из-за зависимостей .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Поддерживаемые фреймворки&lt;/b&gt;: ONNX, TensorFlow, Caffe. &lt;b&gt;Нет поддержки PyTorch напрямую!&lt;/b&gt; Экспорт LLM (например, Whisper) возможен только через ONNX с ручной конвертацией .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Сообщество&lt;/b&gt;: Документация – преимущественно на китайском. Англоязычные гайды фрагментарны, а на Reddit жалуются на сложность отладки .&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Резюме&lt;/b&gt;: NVIDIA предлагает enterprise-решение «из коробки», Orange Pi требует экспертных знаний и времени для настройки.&lt;/p&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;&lt;b&gt;3. Сценарии использования: Для кого эти устройства?&lt;/b&gt;&lt;/h4&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;NVIDIA DGX Spark&lt;/b&gt;:
&lt;ul&gt;
  &lt;li&gt;&lt;b&gt;Исследователи&lt;/b&gt;: Локальный запуск Llama 3 70B или GPT-4-class моделей.&lt;/li&gt;
  &lt;li&gt;&lt;b&gt;Корпорации&lt;/b&gt;: Разработка edge-приложений для робототехники (Isaac) или медвизуализации (Clara) с гарантией совместимости .&lt;/li&gt;
  &lt;li&gt;&lt;b&gt;Стартапы&lt;/b&gt;: Прототипирование агентов ИИ с помощью NIM-микросервисов .&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Orange Pi AI Studio Pro&lt;/b&gt;:
&lt;ul&gt;
  &lt;li&gt;&lt;b&gt;Энтузиасты&lt;/b&gt;: Эксперименты с компьютерным зрением (YOLO) на дешевом железе.&lt;/li&gt;
  &lt;li&gt;&lt;b&gt;Нишевые проекты&lt;/b&gt;: Развертывание специфичных моделей (например, для обработки сенсорных данных), где не нужна интеграция с облаком.&lt;/li&gt;
  &lt;li&gt;&lt;b&gt;Китайский рынок&lt;/b&gt;: Альтернатива Jetson Orin для вузов и госпредприятий .&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;&lt;b&gt;4. Цена и Доступность&lt;/b&gt;&lt;/h4&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;NVIDIA&lt;/b&gt;: От $3000, доступен с мая 2025 через партнеров (например, Dell, Supermicro) .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Orange Pi&lt;/b&gt;: Цена не объявлена, но аналоги (Atlas 200I DK) стоили ~$500. Ориентировочно Pro-версия – $700–$1000. &lt;b&gt;Важно&lt;/b&gt;: нет глобальных поставок; покупка только через AliExpress .&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;&lt;b&gt;Итоговая таблица сравнения&lt;/b&gt;&lt;/h4&gt;
&lt;table cellpadding="0" cellspacing="0" border="0" class="e2-text-table"&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;Критерий&lt;/b&gt;&lt;/td&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;NVIDIA DGX Spark&lt;/b&gt;&lt;/td&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;Orange Pi AI Studio Pro&lt;/b&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;----------------------------&lt;/td&gt;
&lt;td&gt;------------------------------------------&lt;/td&gt;
&lt;td&gt;--------------------------------------&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;Аппаратная мощность&lt;/b&gt;&lt;/td&gt;
&lt;td style="text-align: center"&gt;1 PFLOPS (FP4), 128 ГБ RAM&lt;/td&gt;
&lt;td style="text-align: center"&gt;352 TOPS (INT8), 192 ГБ RAM&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;Поддержка LLM&lt;/b&gt;&lt;/td&gt;
&lt;td style="text-align: center"&gt;До 405B параметров (2 устройства)&lt;/td&gt;
&lt;td style="text-align: center"&gt;До 70B (с оговорками)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;Программная готовность&lt;/b&gt;&lt;/td&gt;
&lt;td style="text-align: center"&gt;Полный стек AI Enterprise&lt;/td&gt;
&lt;td style="text-align: center"&gt;Ручная настройка CANN-Toolkit&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;Экосистема&lt;/b&gt;&lt;/td&gt;
&lt;td style="text-align: center"&gt;CUDA, PyTorch, облачная интеграция&lt;/td&gt;
&lt;td style="text-align: center"&gt;ONNX/TensorFlow, изолированность&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;Целевая аудитория&lt;/b&gt;&lt;/td&gt;
&lt;td style="text-align: center"&gt;Enterprise, исследователи&lt;/td&gt;
&lt;td style="text-align: center"&gt;Энтузиасты, нишевые разработчики&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;&lt;b&gt;Цена&lt;/b&gt;&lt;/td&gt;
&lt;td style="text-align: center"&gt;От $3000&lt;/td&gt;
&lt;td style="text-align: center"&gt;~$700–$1000 (оценка)&lt;/td&gt;
&lt;/tr&gt;
&lt;/table&gt;
&lt;h4&gt;&lt;b&gt;Заключение: Что выбрать?&lt;/b&gt;&lt;/h4&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;NVIDIA DGX Spark&lt;/b&gt; – выбор для тех, кому нужен &lt;b&gt;промышленный инструмент&lt;/b&gt; с минимумом настройки. Идеален для команд, внедряющих ИИ в продукты с последующим масштабированием. Демократизация без жертв .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Orange Pi AI Studio Pro&lt;/b&gt; – &lt;b&gt;экспериментальная платформа&lt;/b&gt; для тех, кому важен TOPS/$ и кто готов бороться с китайской документацией. Подойдет для R&amp;D в условиях санкционных ограничений или бюджетных проектов .&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Тренд&lt;/b&gt;: Оба устройства подтверждают сдвиг ИИ в сторону edge-вычислений. Но если NVIDIA ведет к «персонализации суперкомпьютеров», то Orange Pi остается хардварным хаком для избранных. Ориентируйтесь на задачи: для стартапа или лаборатории – DGX Spark; для образовательных целей или кастомных задач – Orange Pi, если вы готовы к боли.&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;*«AI будет мейнстримом в каждом приложении для каждой индустрии»* (Дженсен Хуанг, NVIDIA ). В 2025 это звучит как констатация факта, а не прогноз.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Почитать подробнее можно тут:&lt;br /&gt;
&lt;a href="https://www.nvidia.com/en-us/products/workstations/dgx-spark/"&gt;https://www.nvidia.com/en-us/products/workstations/dgx-spark/&lt;/a&gt;&lt;br /&gt;
или тут&lt;br /&gt;
&lt;a href="http://www.orangepi.cn/html/hardWare/computerAndMicrocontrollers/details/Orange-Pi-AI-Studio-Pro.html"&gt;http://www.orangepi.cn/html/hardWare/computerAndMicrocontrollers/details/Orange-Pi-AI-Studio-Pro.html&lt;/a&gt;&lt;/p&gt;
</description>
</item>

<item>
<title>WAIC 2025 – World Artificial Intelligence Conference</title>
<guid isPermaLink="false">244</guid>
<link>https://gavrilov.info/all/waic-2025-world-artificial-intelligence-conference/</link>
<pubDate>Fri, 06 Jun 2025 00:09:25 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/waic-2025-world-artificial-intelligence-conference/</comments>
<description>
&lt;p&gt;&lt;b&gt;WAIC (World Artificial Intelligence Conference)&lt;/b&gt; — это крупнейшая международная конференция по искусственному интеллекту, проходящая в Китае. Её ключевые аспекты:&lt;/p&gt;
&lt;p&gt;300 000 посетителей 😱 и 1300 спикеров 😱 &lt;a href="https://www.worldaic.com.cn"&gt;https://www.worldaic.com.cn&lt;/a&gt; – программу не ищите,  ее просто нет. еще.&lt;/p&gt;
&lt;p&gt;pdf тут &lt;a href="http://a.gavrilov.info/data/posts/WAIC2025.pdf"&gt;http://a.gavrilov.info/data/posts/WAIC2025.pdf&lt;/a&gt;&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Фокус на инновациях&lt;/b&gt;:
&lt;ul&gt;
  &lt;li&gt;Демонстрация прорывных технологий, включая &lt;b&gt;робототехнику и Embodied AI&lt;/b&gt; (физические роботы, заменяющие людей в локальных сценариях). Например, на WAIC 2024 было представлено [более 50 роботов], многие из которых дебютировали именно здесь.&lt;/li&gt;
  &lt;li&gt;Участие ведущих компаний (включая Alibaba, SenseTime), даже тех, кто не специализируется исключительно на ИИ.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;&lt;b&gt;Глобальное управление ИИ&lt;/b&gt;:
&lt;ul&gt;
  &lt;li&gt;Конференция служит площадкой для обсуждения этических норм и международного регулирования ИИ. В 2025 году запланирован [высокоуровневый саммит по глобальному управлению ИИ с участием политических деятелей (например, министра иностранных дел Китая Ван И).&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="3"&gt;
&lt;li&gt;&lt;b&gt;Бизнес-экосистема&lt;/b&gt;:
&lt;ul&gt;
  &lt;li&gt;Стартапы (например, SenseTime, разработчик систем распознавания лиц) привлекают многомиллионные инвестиции через WAIC.&lt;/li&gt;
  &lt;li&gt;Выставки и нетворкинг объединяют инвесторов, разработчиков и корпорации.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="4"&gt;
&lt;li&gt;&lt;b&gt;Тренды&lt;/b&gt;:
&lt;ul&gt;
  &lt;li&gt;Акцент на &lt;b&gt;практическом применении ИИ&lt;/b&gt; в промышленности, здравоохранении и повседневной жизни.&lt;/li&gt;
  &lt;li&gt;Рост темпов развития не только программных, но и аппаратных решений (роботы, сенсоры).&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;⚠️ Не путать с Western Association of Independent Camps WAIC &lt;a href="https://www.waic.org"&gt;https://www.waic.org&lt;/a&gt; — это отдельная организация, не связанная с ИИ.&lt;/p&gt;
&lt;p&gt;Как же захотелось в Шанхай :)&lt;/p&gt;
&lt;p&gt;Их сайт &lt;a href="https://online2025.worldaic.com.cn"&gt;https://online2025.worldaic.com.cn&lt;/a&gt; у меня с компа не открылся :( вроде должна быть возможность платного участия, но онлайн.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;div class="fotorama" data-width="1170" data-ratio="1.4079422382671"&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6941.jpg" width="1170" height="831" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6942.jpg" width="1170" height="826" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6944.jpg" width="1170" height="815" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6945.jpg" width="1170" height="833" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6946.jpg" width="1170" height="830" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6947.jpg" width="1170" height="834" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6949.jpg" width="1170" height="822" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6950.jpg" width="1170" height="826" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6952.jpg" width="1170" height="837" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6953.jpg" width="1170" height="832" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6954.jpg" width="1170" height="828" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6955.jpg" width="1170" height="810" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6956.jpg" width="1170" height="826" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6957.jpg" width="1170" height="828" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6958.jpg" width="1170" height="828" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6959.jpg" width="1170" height="819" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6960.jpg" width="1170" height="826" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6962.jpg" width="1170" height="824" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_6964.jpg" width="1170" height="811" alt="" /&gt;
&lt;/div&gt;
&lt;/div&gt;
</description>
</item>

<item>
<title>Транскрибация аудио python на faster-whisper</title>
<guid isPermaLink="false">239</guid>
<link>https://gavrilov.info/all/transkribaciya-audio-python-na-faster-whisper/</link>
<pubDate>Tue, 27 May 2025 22:15:27 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/transkribaciya-audio-python-na-faster-whisper/</comments>
<enclosure url="https://gavrilov.info/audio/test.mp3" type="audio/mpeg" length="42578" />
<enclosure url="http://a.gavrilov.info/data/posts/AA_Cat_2025_v1.mp3" type="audio/mpeg" length="" />
<description>
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-174.png" width="256" height="256" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Все достаточно легко&lt;/p&gt;
&lt;p&gt;Подготовка&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;python3 -m venv ./whisper&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;Активация и установка этого &lt;a href="https://github.com/SYSTRAN/faster-whisper"&gt;https://github.com/SYSTRAN/faster-whisper&lt;/a&gt;&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;source ./whisper/bin/activate
pip install faster-whisper&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;Сам код&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;import sys
import os
import time
from faster_whisper import WhisperModel

# --- Конфигурация модели Whisper ---
model_size = &amp;quot;large-v3&amp;quot;
# Выберите свою конфигурацию:
# model = WhisperModel(model_size, device=&amp;quot;cuda&amp;quot;, compute_type=&amp;quot;float16&amp;quot;) # Если есть GPU и CUDA
# model = WhisperModel(model_size, device=&amp;quot;cuda&amp;quot;, compute_type=&amp;quot;int8_float16&amp;quot;) # Если есть GPU и CUDA с INT8
model = WhisperModel(model_size, device=&amp;quot;cpu&amp;quot;, compute_type=&amp;quot;int8&amp;quot;) # Для CPU (как в вашем примере)
# -----------------------------------

def transcribe_mp3_to_text(mp3_filepath):
    &amp;quot;&amp;quot;&amp;quot;
    Транскрибирует MP3 файл и сохраняет результат в текстовый файл.
    &amp;quot;&amp;quot;&amp;quot;
    if not os.path.exists(mp3_filepath):
        print(f&amp;quot;Ошибка: Файл MP3 не найден: {mp3_filepath}&amp;quot;)
        return False

    if not mp3_filepath.lower().endswith(&amp;quot;.mp3&amp;quot;):
        print(f&amp;quot;Ошибка: Файл '{mp3_filepath}' не является MP3 файлом. Пропускаем.&amp;quot;)
        return False

    # Извлечение имени файла без расширения
    filename_without_ext = os.path.splitext(os.path.basename(mp3_filepath))[0]
    output_txt_filepath = os.path.join(os.path.dirname(mp3_filepath), f&amp;quot;{filename_without_ext}.txt&amp;quot;)

    print(f&amp;quot;[{time.strftime('%Y-%m-%d %H:%M:%S')}] Начинаем транскрипцию '{mp3_filepath}'...&amp;quot;)
    print(f&amp;quot;Результат будет сохранен в '{output_txt_filepath}'&amp;quot;)

    try:
        segments, info = model.transcribe(mp3_filepath, beam_size=5)

        detected_language_msg = f&amp;quot;Detected language: '{info.language}' with probability {info.language_probability:.2f}&amp;quot;
        print(detected_language_msg)

        # Сохранение транскрипции в текстовый файл
        with open(output_txt_filepath, 'w', encoding='utf-8') as f_out:
            f_out.write(f&amp;quot;--- Транскрипция для: {os.path.basename(mp3_filepath)} ---\n&amp;quot;)
            f_out.write(f&amp;quot;{detected_language_msg}\n\n&amp;quot;)
            
            full_text = [] # Для сбора всего текста, если нужно вывести в конце

            for segment in segments:
                segment_line = f&amp;quot;[{segment.start:.2f}s -&amp;gt; {segment.end:.2f}s] {segment.text}&amp;quot;
                print(segment_line) # Выводим в консоль для отладки
                f_out.write(f&amp;quot;{segment.text}\n&amp;quot;) # Записываем только текст в файл, по сегментам
                full_text.append(segment.text)

            # Если вы хотите сохранить всю транскрипцию одним блоком в конце файла или отдельный файл
            # f_out.write(&amp;quot;\n\n--- Полный текст ---\n&amp;quot;)
            # f_out.write(&amp;quot; &amp;quot;.join(full_text))

        print(f&amp;quot;[{time.strftime('%Y-%m-%d %H:%M:%S')}] Транскрипция успешно завершена! Результат в '{output_txt_filepath}'&amp;quot;)
        return True

    except Exception as e:
        print(f&amp;quot;Ошибка при транскрипции файла '{mp3_filepath}': {e}&amp;quot;)
        # Вы можете добавить логирование ошибки в отдельный файл, если нужно
        return False

if __name__ == &amp;quot;__main__&amp;quot;:
    if len(sys.argv) &amp;lt; 2:
        print(&amp;quot;Использование: python process_mp3.py &amp;lt;путь/к/вашему/файлу.mp3&amp;gt;&amp;quot;)
        sys.exit(1)

    mp3_file_path_arg = sys.argv[1] # Это будет полный путь к MP3 файлу, переданный из Automator/Bash
    transcribe_mp3_to_text(mp3_file_path_arg)&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;Итоги запуска&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;(whisper) (base) yuriygavrilov@MacBookPro fastwhisper % python whisp.py            
Detected language 'ru' with probability 0.998883
[0.00s -&amp;gt; 4.96s]  Раз, два, три, привет, как дела?
[5.94s -&amp;gt; 8.54s]  Все хорошо, а у тебя как?
[9.54s -&amp;gt; 10.78s]  И у меня все хорошо
[10.78s -&amp;gt; 12.98s]  Спасибо, пока
(whisper) (base) yuriygavrilov@MacBookPro fastwhisper %&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;тестовый файл тут&lt;/p&gt;
&lt;div class="e2-text-audio"&gt;
&lt;div class="e2-text-super-wrapper e2-jouele-wrapper"&gt;&lt;a class="jouele" data-space-control="true" data-length="14" href="https://gavrilov.info/audio/test.mp3"&gt;test.mp3&lt;/a&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;ограничений по времени нет, кормите его любыми файлами любой длины. Если нужно можно упростить запуск как хотите. На мак можно даже поставить действие на папку и при появлении там файлов типа mp3 они будут автоматически транскрибироваться.&lt;/p&gt;
&lt;p&gt;Буду делать через приложении на маке automator&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-05-29-v-04.39.57.png" width="316" height="342" alt="" /&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-05-27-v-21.04.40.png" width="1134" height="240" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Как то примерно так :)&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-05-27-v-21.38.38.png" width="1228" height="1198" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;осталось прикрутить это а действие к папке&lt;/p&gt;
&lt;p&gt;кажись заработало :)&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-05-27-v-22.07.03.png" width="132" height="58" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Создалась транскрипция сама&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-05-27-v-22.07.58.png" width="386" height="282" alt="" /&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-05-27-v-22.08.33.png" width="750" height="280" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;получилось в итоге вот так: Открываем Automator, настраиваем действие и все.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-05-27-v-22.10.06.png" width="1184" height="870" alt="" /&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-05-27-v-22.12.51.png" width="2482" height="490" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;работает так: кидаем файл в папку тест, скрипт запускается, транскрипция появляется рядом. Все.&lt;/p&gt;
&lt;p&gt;Проверим качество модели на этом:&lt;/p&gt;
&lt;div class="e2-text-audio"&gt;
&lt;div class="e2-text-super-wrapper e2-jouele-wrapper"&gt;&lt;a class="jouele" data-space-control="true" href="http://a.gavrilov.info/data/posts/AA_Cat_2025_v1.mp3"&gt;AA_Cat_2025_v1.mp3&lt;/a&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-05-27-v-22.24.14.png" width="824" height="558" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;почти идеал 🤘&lt;/p&gt;
&lt;p&gt;Второй раз чуть иначе, но почти точно.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2025-05-27-v-22.37.19.png" width="874" height="546" alt="" /&gt;
&lt;/div&gt;
</description>
</item>

<item>
<title>Неплохое приложение для распознания голоса</title>
<guid isPermaLink="false">238</guid>
<link>https://gavrilov.info/all/neplohoe-prilozhenie-dlya-raspoznaniya-golosa/</link>
<pubDate>Sun, 25 May 2025 23:17:46 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/neplohoe-prilozhenie-dlya-raspoznaniya-golosa/</comments>
<description>
&lt;p&gt;Но только для мака и есть локальные модели&lt;/p&gt;
&lt;p&gt;&lt;a href="https://superwhisper.com"&gt;https://superwhisper.com&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;недавно появилось приложение для ИОС&lt;/p&gt;
&lt;p&gt;&lt;a href="https://apps.apple.com/us/app/superwhisper/id6471464415"&gt;https://apps.apple.com/us/app/superwhisper/id6471464415&lt;/a&gt;&lt;/p&gt;
</description>
</item>

<item>
<title>Тестируем Suno 4.5 🎸🤘</title>
<guid isPermaLink="false">237</guid>
<link>https://gavrilov.info/all/testiruem-suno-4-5/</link>
<pubDate>Mon, 19 May 2025 08:29:28 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/testiruem-suno-4-5/</comments>
<enclosure url="http://a.gavrilov.info/data/posts/Priests_of_Data_(Жрецы_Данных)_2025_v24.mp3" type="audio/mpeg" length="" />
<enclosure url="http://a.gavrilov.info/data/posts/Priests_of_Data_(Жрецы_Данных)_2025_v25.mp3" type="audio/mpeg" length="" />
<enclosure url="http://a.gavrilov.info/data/posts/Priests_of_Data_(Жрецы_Данных)_2025_v26.mp3" type="audio/mpeg" length="" />
<enclosure url="http://a.gavrilov.info/data/posts/Priests_of_Data_(Жрецы_Данных)_2025_v46.mp3" type="audio/mpeg" length="" />
<enclosure url="http://a.gavrilov.info/data/posts/AA_Cat_2025_v1.mp3" type="audio/mpeg" length="" />
<enclosure url="http://a.gavrilov.info/data/posts/Apologize_by_me_2025_v5.mp3" type="audio/mpeg" length="" />
<enclosure url="http://a.gavrilov.info/data/posts/Apologize_by_me_2025_v2.mp3" type="audio/mpeg" length="" />
<enclosure url="http://a.gavrilov.info/data/posts/The_One_S7_Community_analysts_BD_2025.mp3" type="audio/mpeg" length="" />
<enclosure url="http://a.gavrilov.info/data/posts/Evolving_Data's_Path_(Code_of_High)_2025_v12.mp3" type="audio/mpeg" length="" />
<enclosure url="http://a.gavrilov.info/data/posts/EDP_2025.mp3" type="audio/mpeg" length="" />
<enclosure url="http://a.gavrilov.info/data/posts/In_the_Fog_of_Love_2025_v1.mp3" type="audio/mpeg" length="" />
<description>
&lt;p&gt;В целом нейронка показывает себя достойно, почти как 4.0 но чуть качественнее и может создавать треки по 8 минут. 4 могла только до 4 минут.&lt;/p&gt;
&lt;p&gt;Пара экспериментов&lt;/p&gt;
&lt;p&gt;Жрецы данных :) 🤣🤘🎸&lt;/p&gt;
&lt;div class="e2-text-audio"&gt;
&lt;div class="e2-text-super-wrapper e2-jouele-wrapper"&gt;&lt;a class="jouele" data-space-control="true" href="http://a.gavrilov.info/data/posts/Priests_of_Data_(Жрецы_Данных)_2025_v24.mp3"&gt;Priests_of_Data_(Жрецы_Данных)_2025_v24.mp3&lt;/a&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;А вот по заказу в стиле кровостока 🤣 от &lt;a href="https://datanature.ru"&gt;Александра Баракова&lt;/a&gt;, но пожалуй надо текст переписать&lt;/p&gt;
&lt;div class="e2-text-audio"&gt;
&lt;div class="e2-text-super-wrapper e2-jouele-wrapper"&gt;&lt;a class="jouele" data-space-control="true" href="http://a.gavrilov.info/data/posts/Priests_of_Data_(Жрецы_Данных)_2025_v25.mp3"&gt;Priests_of_Data_(Жрецы_Данных)_2025_v25.mp3&lt;/a&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;div class="e2-text-audio"&gt;
&lt;div class="e2-text-super-wrapper e2-jouele-wrapper"&gt;&lt;a class="jouele" data-space-control="true" href="http://a.gavrilov.info/data/posts/Priests_of_Data_(Жрецы_Данных)_2025_v26.mp3"&gt;Priests_of_Data_(Жрецы_Данных)_2025_v26.mp3&lt;/a&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Другой текст 🙉&lt;/p&gt;
&lt;div class="e2-text-audio"&gt;
&lt;div class="e2-text-super-wrapper e2-jouele-wrapper"&gt;&lt;a class="jouele" data-space-control="true" href="http://a.gavrilov.info/data/posts/Priests_of_Data_(Жрецы_Данных)_2025_v46.mp3"&gt;Priests_of_Data_(Жрецы_Данных)_2025_v46.mp3&lt;/a&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Это то как нейронка понимает dmbok и предлагает исполнение, от себя я не добавлял ничего. Но был интересный опыт в первом промте я попросил нейронку дать рекомендации, не только для меня но и для другой нейронки. ( deepseek был первый, вторая flash 2.5 preview )&lt;/p&gt;
&lt;p&gt;Маленькие правки некоторых выражений все же были, но наверное только ради хорошего звучания на русском и что бы не коробило слух.&lt;/p&gt;
&lt;p&gt;Анна Ахматова&lt;/p&gt;
&lt;div class="e2-text-audio"&gt;
&lt;div class="e2-text-super-wrapper e2-jouele-wrapper"&gt;&lt;a class="jouele" data-space-control="true" href="http://a.gavrilov.info/data/posts/AA_Cat_2025_v1.mp3"&gt;AA_Cat_2025_v1.mp3&lt;/a&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Ремикс на песню apologies onerepublic&lt;/p&gt;
&lt;div class="e2-text-audio"&gt;
&lt;div class="e2-text-super-wrapper e2-jouele-wrapper"&gt;&lt;a class="jouele" data-space-control="true" href="http://a.gavrilov.info/data/posts/Apologize_by_me_2025_v5.mp3"&gt;Apologize_by_me_2025_v5.mp3&lt;/a&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Кстати нейронка теперь лучше защищает авторские права, ее нельзя попросить спой как Киркоров, идет проверка по названиям треков и исполнителям. Но можно другую нейронку попросить переделать песню. Вот как например эта:&lt;/p&gt;
&lt;p&gt;Этот трек переписала другая нейронка, но с сохранением смысла. Использовала Flash 2.5 preview.&lt;/p&gt;
&lt;div class="e2-text-audio"&gt;
&lt;div class="e2-text-super-wrapper e2-jouele-wrapper"&gt;&lt;a class="jouele" data-space-control="true" href="http://a.gavrilov.info/data/posts/Apologize_by_me_2025_v2.mp3"&gt;Apologize_by_me_2025_v2.mp3&lt;/a&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;4.5 сейчас платная, стоит 10 $ в месяц&lt;br /&gt;
Еще в бесплатных версиях они начали портить чуть треки, что ты купил их.&lt;/p&gt;
&lt;p&gt;С первого раза не получается хорошо, очень редко, обычно 10-15 раз надо сгенерировать  снова и поправить слова или написать английские слова на русском, что бы нейронка понимала как произнести.&lt;/p&gt;
&lt;p&gt;В версии 4.5 появился функционал генерации кусочков, то есть если песня вам нравится, а только некоторые слова или окончание надо поправить, то это можно сделать. Заменить можно примерно любые 6 секунд.&lt;/p&gt;
&lt;p&gt;Немного профильных треков:&lt;/p&gt;
&lt;div class="e2-text-audio"&gt;
&lt;div class="e2-text-super-wrapper e2-jouele-wrapper"&gt;&lt;a class="jouele" data-space-control="true" href="http://a.gavrilov.info/data/posts/The_One_S7_Community_analysts_BD_2025.mp3"&gt;The_One_S7_Community_analysts_BD_2025.mp3&lt;/a&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;div class="e2-text-audio"&gt;
&lt;div class="e2-text-super-wrapper e2-jouele-wrapper"&gt;&lt;a class="jouele" data-space-control="true" href="http://a.gavrilov.info/data/posts/Evolving_Data's_Path_(Code_of_High)_2025_v12.mp3"&gt;Evolving_Data’s_Path_(Code_of_High)_2025_v12.mp3&lt;/a&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Для сравнение этот трек сделан на версии 4.0:&lt;/p&gt;
&lt;div class="e2-text-audio"&gt;
&lt;div class="e2-text-super-wrapper e2-jouele-wrapper"&gt;&lt;a class="jouele" data-space-control="true" href="http://a.gavrilov.info/data/posts/EDP_2025.mp3"&gt;EDP_2025.mp3&lt;/a&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;А тут немного личного :) такое нейронка пишет на после анализа чатов, ну почти 🙈🥹&lt;/p&gt;
&lt;div class="e2-text-audio"&gt;
&lt;div class="e2-text-super-wrapper e2-jouele-wrapper"&gt;&lt;a class="jouele" data-space-control="true" href="http://a.gavrilov.info/data/posts/In_the_Fog_of_Love_2025_v1.mp3"&gt;In_the_Fog_of_Love_2025_v1.mp3&lt;/a&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Все тексты делал тут: &lt;a href="http://openrouter.ai"&gt;http://openrouter.ai&lt;/a&gt; в основном Gemini Flash 2.5 либо DeepSeek R1&lt;/p&gt;
</description>
</item>

<item>
<title>Практическое руководство построения Агентов ИИ</title>
<guid isPermaLink="false">233</guid>
<link>https://gavrilov.info/all/prakticheskoe-rukovodstvo-postroeniya-agentov-ii/</link>
<pubDate>Sun, 20 Apr 2025 14:09:40 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/prakticheskoe-rukovodstvo-postroeniya-agentov-ii/</comments>
<description>
&lt;p&gt;&lt;a href="http://a.gavrilov.info/data/posts/Practical_Guide_to_Building_Agents.pdf"&gt;Инструкция оригинал тут&lt;/a&gt;&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/AI_Agents.png" width="600" height="380" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Потом еще свой код покажу, но он работает в версии 1.65, надо бы обновить.&lt;/p&gt;
&lt;p&gt;Документ представляет собой руководство по разработке автономных систем (агентов) на базе языковых моделей (LLM). Основные темы:&lt;/p&gt;
&lt;p&gt;Определение агентов: системы, выполняющие задачи от имени пользователя с высокой степенью автономии.&lt;br /&gt;
Ключевые компоненты: модели LLM, инструменты (API, функции), инструкции, защитные механизмы (guardrails).&lt;br /&gt;
Оркестрация: подходы к управлению агентами (одиночные и мультиагентные системы).&lt;br /&gt;
Guardrails: механизмы безопасности для контроля рисков.&lt;br /&gt;
Практические рекомендации: выбор моделей, проектирование инструментов, обработка исключений, интеграция с людьми.&lt;/p&gt;
&lt;p&gt;Ниже не полный перевод. Раздел Guardrails очень интересный!&lt;/p&gt;
&lt;hr /&gt;
&lt;h4&gt;Практическое руководство по созданию агентов&lt;/h4&gt;
&lt;p&gt;&lt;b&gt;Автор: OpenAI&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h5&gt;Содержание&lt;/h5&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Введение&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Что такое агент?&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Когда следует создавать агента?&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Основы проектирования агентов&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Выбор моделей&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Определение инструментов&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Конфигурация инструкций&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Оркестрация&lt;/b&gt;
&lt;ul&gt;
  &lt;li&gt;8.1. Системы с одним агентом&lt;/li&gt;
  &lt;li&gt;8.2. Мультиагентные системы&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Защитные механизмы (Guardrails)&lt;/b&gt;&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Заключение&lt;/b&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;1. Введение&lt;/h4&gt;
&lt;p&gt;Крупные языковые модели (LLM) становятся всё более способными решать сложные многошаговые задачи. Достижения в области логических рассуждений, мультимодальности и использования инструментов открыли новую категорию систем на базе LLM — &lt;b&gt;агентов&lt;/b&gt;.&lt;/p&gt;
&lt;p&gt;Это руководство предназначено для продуктовых и инженерных команд, изучающих создание своих первых агентов. В нём собраны практические рекомендации, основанные на опыте внедрения агентов в различных проектах.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;После прочтения вы узнаете:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Как выбирать подходящие сценарии использования.&lt;/li&gt;
&lt;li&gt;Как проектировать логику агентов и управлять их взаимодействием.&lt;/li&gt;
&lt;li&gt;Как обеспечивать безопасность и предсказуемость работы.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;2. Что такое агент?&lt;/h4&gt;
&lt;p&gt;Агенты — системы, которые &lt;b&gt;самостоятельно&lt;/b&gt; выполняют задачи от имени пользователя.&lt;/p&gt;
&lt;h5&gt;Ключевые характеристики:&lt;/h5&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Использование LLM&lt;/b&gt;
&lt;ul&gt;
  &lt;li&gt;Управление рабочими процессами.&lt;/li&gt;
  &lt;li&gt;Корректировка действий при ошибках.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Доступ к инструментам&lt;/b&gt;
&lt;ul&gt;
  &lt;li&gt;Взаимодействие с API, базами данных, внешними системами.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;b&gt;Примеры задач:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Обработка запросов в службе поддержки.&lt;/li&gt;
&lt;li&gt;Бронирование ресторана.&lt;/li&gt;
&lt;li&gt;Генерация отчётов.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Не являются агентами:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Простые чат-боты.&lt;/li&gt;
&lt;li&gt;Системы без управления рабочими процессами.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;3. Когда следует создавать агента?&lt;/h4&gt;
&lt;p&gt;Агенты подходят для задач, где традиционные правила и детерминированные системы неэффективны.&lt;/p&gt;
&lt;h5&gt;Сценарии для внедрения:&lt;/h5&gt;
&lt;table cellpadding="0" cellspacing="0" border="0" class="e2-text-table"&gt;
&lt;tr&gt;
&lt;td&gt;Категория&lt;/td&gt;
&lt;td&gt;Примеры задач&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Сложные решения&lt;/td&gt;
&lt;td&gt;Одобрение возврата средств.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Сложные правила&lt;/td&gt;
&lt;td&gt;Проверка безопасности поставщиков.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Неструктурированные данные&lt;/td&gt;
&lt;td&gt;Анализ страховых случаев.&lt;/td&gt;
&lt;/tr&gt;
&lt;/table&gt;
&lt;p&gt;&lt;b&gt;Перед созданием агента:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Убедитесь, что задача требует неоднозначных решений.&lt;/li&gt;
&lt;li&gt;Если задача простая, используйте детерминированные методы.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;4. Основы проектирования агентов&lt;/h4&gt;
&lt;p&gt;Агент состоит из трёх компонентов:&lt;/p&gt;
&lt;table cellpadding="0" cellspacing="0" border="0" class="e2-text-table"&gt;
&lt;tr&gt;
&lt;td&gt;Компонент&lt;/td&gt;
&lt;td&gt;Описание&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;b&gt;Модель&lt;/b&gt;&lt;/td&gt;
&lt;td&gt;LLM для логики и принятия решений.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;b&gt;Инструменты&lt;/b&gt;&lt;/td&gt;
&lt;td&gt;API, базы данных, внешние системы.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;b&gt;Инструкции&lt;/b&gt;&lt;/td&gt;
&lt;td&gt;Правила и ограничения поведения.&lt;/td&gt;
&lt;/tr&gt;
&lt;/table&gt;
&lt;p&gt;&lt;b&gt;Пример кода (Agents SDK):&lt;/b&gt;&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;weather_agent = Agent(  
    name=&amp;quot;Weather agent&amp;quot;,  
    instructions=&amp;quot;Вы помощник, который отвечает на вопросы о погоде.&amp;quot;,  
    tools=[get_weather],  
)&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;5. Выбор моделей&lt;/h4&gt;
&lt;p&gt;&lt;b&gt;Рекомендации:&lt;/b&gt;&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Начните с самой мощной модели для базового уровня производительности.&lt;/li&gt;
&lt;li&gt;Заменяйте её на более лёгкие модели, где это возможно.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;b&gt;Примеры задач:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Простые запросы → Маленькие модели (например, `gpt-3.5`).&lt;/li&gt;
&lt;li&gt;Сложные решения → Мощные модели (например, `gpt-4`).&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;6. Определение инструментов&lt;/h4&gt;
&lt;p&gt;Инструменты расширяют возможности агентов через API.&lt;/p&gt;
&lt;h5&gt;Типы инструментов:&lt;/h5&gt;
&lt;table cellpadding="0" cellspacing="0" border="0" class="e2-text-table"&gt;
&lt;tr&gt;
&lt;td&gt;Тип&lt;/td&gt;
&lt;td style="text-align: right"&gt;Примеры&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;b&gt;Данные&lt;/b&gt;&lt;/td&gt;
&lt;td&gt;Запросы к CRM, чтение PDF.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;b&gt;Действия&lt;/b&gt;&lt;/td&gt;
&lt;td&gt;Отправка email, обновление CRM.&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;b&gt;Оркестрация&lt;/b&gt;&lt;/td&gt;
&lt;td&gt;Агент возвратов, исследовательский агент.&lt;/td&gt;
&lt;/tr&gt;
&lt;/table&gt;
&lt;p&gt;&lt;b&gt;Пример кода:&lt;/b&gt;&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;search_agent = Agent(  
    name=&amp;quot;Search agent&amp;quot;,  
    instructions=&amp;quot;Помогите пользователю искать в интернете.&amp;quot;,  
    tools=[WebSearchTool(), save_results],  
)&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;7. Конфигурация инструкций&lt;/h4&gt;
&lt;p&gt;&lt;b&gt;Рекомендации:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Используйте существующие документы (например, инструкции службы поддержки).&lt;/li&gt;
&lt;li&gt;Разбивайте задачи на шаги.&lt;/li&gt;
&lt;li&gt;Определяйте чёткие действия для каждого шага.&lt;/li&gt;
&lt;li&gt;Учитывайте крайние случаи.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Пример генерации инструкций:&lt;/b&gt;&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;prompt = &amp;quot;&amp;quot;&amp;quot;  
Вы эксперт по созданию инструкций для агентов.  
Преобразуйте документ в нумерованный список без неоднозначностей.  
Документ: {{help_center_doc}}  
&amp;quot;&amp;quot;&amp;quot;&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;8. Оркестрация&lt;/h4&gt;
&lt;h5&gt;8.1. Системы с одним агентом&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;Один агент управляет всеми задачами.&lt;/li&gt;
&lt;li&gt;Простота внедрения и обслуживания.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Пример работы:&lt;/b&gt;&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;await Runner.run(agent, [UserMessage(&amp;quot;Столица США?&amp;quot;)])&lt;/code&gt;&lt;/pre&gt;&lt;h5&gt;8.2. Мультиагентные системы&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Менеджер-агент&lt;/b&gt; координирует специализированных агентов.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Децентрализованные агенты&lt;/b&gt; передают задачи друг другу.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Пример менеджер-агента:&lt;/b&gt;&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;manager_agent = Agent(  
    name=&amp;quot;Менеджер переводов&amp;quot;,  
    tools=[spanish_agent, french_agent],  
)&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;9. Защитные механизмы (Guardrails)&lt;/h4&gt;
&lt;p&gt;&lt;b&gt;Цель:&lt;/b&gt; Предотвращение рисков (утечки данных, вредоносные запросы).&lt;/p&gt;
&lt;h5&gt;Типы защит:&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Классификатор релевантности&lt;/b&gt; → Фильтрация не относящихся к делу запросов.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Фильтр PII&lt;/b&gt; → Защита персональных данных.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Модерация&lt;/b&gt; → Блокировка вредоносного контента.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Пример кода:&lt;/b&gt;&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;@input_guardrail  
async def churn_detection(ctx, input):  
    # Проверка риска оттока клиентов  
    ...&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;10. Заключение&lt;/h4&gt;
&lt;p&gt;&lt;b&gt;Ключевые принципы:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Начинайте с простых агентов.&lt;/li&gt;
&lt;li&gt;Используйте защитные механизмы.&lt;/li&gt;
&lt;li&gt;Планируйте вмешательство человека для критических задач.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Агенты открывают новые возможности для автоматизации сложных рабочих процессов.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;OpenAI&lt;/b&gt; — компания, занимающаяся разработкой ИИ. Наша миссия — обеспечить, чтобы искусственный интеллект приносил пользу человечеству.&lt;/p&gt;
</description>
</item>

<item>
<title>Свежее по классификации подвезли – mistral</title>
<guid isPermaLink="false">232</guid>
<link>https://gavrilov.info/all/svezhee-po-klassifikacii-podvezli-i-mistral/</link>
<pubDate>Wed, 16 Apr 2025 23:08:56 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/svezhee-po-klassifikacii-podvezli-i-mistral/</comments>
<description>
&lt;p&gt;🔥 Classifier Factory от Mistral&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_5876.jpeg" width="1280" height="911" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Classifier Factory — это интуитивно понятное руководство для создания и обучения собственных моделей классификации на базе компактных LLM от Mistral AI.&lt;/p&gt;
&lt;p&gt;С его помощью — как через веб‑интерфейс La Plateforme, так и через API — можно быстро разворачивать решения для модерации контента, детекции намерений, анализа тональности, кластеризации данных, обнаружения мошенничества, фильтрации спама, рекомендательных систем и других задач&lt;/p&gt;
&lt;p&gt;Таким образом, Classifier Factory упрощает весь цикл работы с custom‑классификаторами: от подготовки данных до развёртывания готовой модели в продакшене.&lt;/p&gt;
&lt;p&gt;Еще они обнвоили доку.&lt;/p&gt;
&lt;p&gt;🔜 &lt;a href="https://docs.mistral.ai/capabilities/finetuning/classifier_factory/"&gt;Docs&lt;/a&gt;&lt;br /&gt;
🔜&lt;a href="https://colab.research.google.com/github/mistralai/cookbook/blob/main/mistral/classifier_factory/moderation_classifier.ipynb"&gt;Cookbook: Moderation Classifier&lt;/a&gt;&lt;br /&gt;
🔜&lt;a href="https://colab.research.google.com/github/mistralai/cookbook/blob/main/mistral/classifier_factory/intent_classification.ipynb"&gt;Cookbook: Intent Classification&lt;/a&gt;&lt;br /&gt;
🔜&lt;a href="https://colab.research.google.com/github/mistralai/cookbook/blob/main/mistral/classifier_factory/product_classification.ipynb"&gt;Cookbook: Classification of Food&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;@ai_machinelearning_big_data&lt;/p&gt;
&lt;p&gt;#Mistral #api&lt;/p&gt;
</description>
</item>

<item>
<title>Немного актуального про NPU чипы</title>
<guid isPermaLink="false">231</guid>
<link>https://gavrilov.info/all/nemnogo-aktualnogo-pro-npu-chipy/</link>
<pubDate>Wed, 16 Apr 2025 21:43:53 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/nemnogo-aktualnogo-pro-npu-chipy/</comments>
<description>
&lt;p&gt;&lt;a href="https://habr.com/ru/companies/recognitor/articles/898152/"&gt;https://habr.com/ru/companies/recognitor/articles/898152/&lt;/a&gt;&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-173.png" width="800" height="646" alt="" /&gt;
&lt;/div&gt;
</description>
</item>

<item>
<title>Как навести порядок в хаосе данных: стратегия для бизнеса</title>
<guid isPermaLink="false">230</guid>
<link>https://gavrilov.info/all/kak-navesti-poryadok-v-haose-dannyh-strategiya-dlya-biznesa/</link>
<pubDate>Tue, 15 Apr 2025 21:13:12 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/kak-navesti-poryadok-v-haose-dannyh-strategiya-dlya-biznesa/</comments>
<description>
&lt;p&gt;Любопытная статья про порядок и знания. Раньше к этому стремились большие компании, может даже инвестиционные, а сегодня это под силу даже мелким.&lt;/p&gt;
&lt;p&gt;Основное это RAG, втаскивание смысловых значение и аккумулирование всего в виде FAQ.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://telegra.ph/Kak-navesti-poryadok-v-haose-dannyh-strategiya-dlya-biznesa-03-31"&gt;https://telegra.ph/Kak-navesti-poryadok-v-haose-dannyh-strategiya-dlya-biznesa-03-31&lt;/a&gt;&lt;/p&gt;
</description>
</item>

<item>
<title>chat.z.ai – три модельки open source</title>
<guid isPermaLink="false">229</guid>
<link>https://gavrilov.info/all/chat-z-ai-tri-modelki-open-source/</link>
<pubDate>Tue, 15 Apr 2025 16:14:22 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/chat-z-ai-tri-modelki-open-source/</comments>
<description>
&lt;p&gt;Регистрироваться не нужно. Работают огонь. Особенно последняя мощная. Прямо технические выкладки делает и рассуждает. Долго конечно, но потом как мини исследование пишет.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://chat.z.ai/"&gt;https://chat.z.ai/&lt;/a&gt; – пробуем тут&lt;/p&gt;
&lt;p&gt;&lt;a href="https://bigmodel.cn/"&gt;https://bigmodel.cn/&lt;/a&gt; – или тут&lt;/p&gt;
&lt;p&gt;&lt;a href="https://huggingface.co/collections/THUDM/glm-4-0414-67f3cbcb34dd9d252707cb2e"&gt;https://huggingface.co/collections/THUDM/glm-4-0414-67f3cbcb34dd9d252707cb2e&lt;/a&gt; или сами запускаем отсюда.&lt;/p&gt;
&lt;p&gt;Zhipu AI открывает код своих моделей: в 8 раз быстрее конкурентов с уникальной технологией размышления&lt;/p&gt;
&lt;p&gt;🔍 Что произошло?&lt;br /&gt;
Zhipu AI объявила о полном открытии кода своей технологической цепочки, включая:&lt;br /&gt;
• GLM-4-32B-0414 — базовая модель с улучшенной работой инструментов (код, поиск)&lt;br /&gt;
• GLM-Z1-32B-0414 — рекордная эффективность (аналог 671B модели на 32B параметрах)&lt;br /&gt;
• GLM-Z1-Rumination — первый ИИ с полным циклом исследования (поиск → анализ → проверка)&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Также доступны облегчённые 9B-версии (GLM-4-9B-0414, GLM-Z1-9B-0414)&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Все модели распространяются по лицензии MIT.&lt;/p&gt;
&lt;p&gt;💡 Что умеет “Размышляющая” модель:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Самостоятельно ищет информацию&lt;/li&gt;
&lt;li&gt;Анализирует данные&lt;/li&gt;
&lt;li&gt;Проверяет гипотезы&lt;/li&gt;
&lt;li&gt;Формирует выводы&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Например, модель можно запросить сформировать отчет о рынке серверных операционных систем в Китае.&lt;/p&gt;
&lt;p&gt;⚙️ Технические детали:&lt;br /&gt;
▸ Рекордная скорость генерации до 200 токенов/сек&lt;br /&gt;
▸ Сопоставимая с DeepSeek-R1 производительность при меньшем размере&lt;br /&gt;
▸ Поддержка HTML/CSS/JS/SVG с интерактивным выполнением кода прямо в чате&lt;br /&gt;
▸ Оптимизация для consumer-GPU (например, RTX 4090)&lt;br /&gt;
▸ Три версии API: скоростная, бюджетная и бесплатна&lt;/p&gt;
&lt;p&gt;Такие модельки не сильно прожорливые и думаю вполне себе потянет такая железка OrangePi AIPro (20T) 24Гб  за 40тс рублей  &lt;a href="https://onpad.ru/catalog/cubie/orange_pi/orage_pi/3698.html"&gt;https://onpad.ru/catalog/cubie/orange_pi/orage_pi/3698.html&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;AI да Китай&lt;/p&gt;
&lt;p&gt;Вопрос: А и Б сидели на трубе, А упала Б пропала, кто остался на требе?&lt;/p&gt;
&lt;p&gt;Ответ:&lt;/p&gt;
&lt;h2&gt;“А и Б сидели на трубе”: История, смысл и решение старинной русской загадки&lt;/h2&gt;
&lt;h3&gt;Введение&lt;/h3&gt;
&lt;p&gt;Старинные русские загадки, передающиеся из уст в уста, представляют собой не только забавную головоломку, но и отражение народной мудрости, языковых тонкостей и культуры. Одна из самых известных и популярных загадок, которая流传 в русскоязычной среде, звучит так: “А и Б сидели на трубе, А упала, Б пропала, кто остался на трубе?” В данном исследовании我们将深入探讨 эту загадку, её происхождение, смысл и, конечно, правильный ответ.&lt;/p&gt;
&lt;h3&gt;История загадки&lt;/h3&gt;
&lt;p&gt;Загадка “А и Б сидели на трубе” имеет давнюю историю и является классическим примером языковой головоломки, которая проверяет внимательность и сообразительность. Она передаётся из поколения в поколение, оставаясь актуальной и популярной в русскоязычной культуре. Эта загадка относится к категории загадок, которые кажутся сложными на первый взгляд, но имеют простое решение, основывающееся на игре с языком.&lt;/p&gt;
&lt;h3&gt;Смысл загадки&lt;/h3&gt;
&lt;p&gt;Для понимания смысла загадки有必要 разобрать её по частям:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;“А и Б сидели на трубе” – здесь подразумеваются три элемента: А, “и” (что в русском языке означает “и”), и Б.&lt;/li&gt;
&lt;li&gt;“А упала” – подразумевает исчезновение или удаление первого элемента.&lt;/li&gt;
&lt;li&gt;“Б пропала” – подразумевает исчезновение или удаление третьего элемента.&lt;/li&gt;
&lt;li&gt;“Кто остался на трубе?” – вопрос, который задаётся для определения, что осталось после исчезновения А и Б.&lt;/li&gt;
&lt;/ol&gt;
&lt;h3&gt;Решение загадки&lt;/h3&gt;
&lt;p&gt;Правильный ответ на загадку “А и Б сидели на трубе, А упала, Б пропала, кто остался на трубе?” – это “и” (что в русском языке означает “и”).&lt;/p&gt;
&lt;p&gt;Этот ответ можно объяснить следующим образом:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;В оригинальной фразе “А и Б сидели на трубе” присутствуют три символа: А, “и”, Б.&lt;/li&gt;
&lt;li&gt;Если А “упала” (то есть исчезла), а Б “пропала” (также исчезла), то на трубе остается только “и”.&lt;/li&gt;
&lt;li&gt;В русском языке “и” – это отдельное слово, обозначающее “и”, и именно это слово остается на трубе после исчезновения А и Б.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Этот ответ подтверждается несколькими источниками:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;“Согласно указанной загадке на трубе находилось три буквы – это а, и, б. Поскольку две буквы (а, б) с трубы куда-то пропали, то на трубе осталась только буква ‘и’.” [[11](&lt;a href="https://uchi.ru/otvety/questions/a-i-b-sideli-na-trube-a-upalo-b-propalo-kto-ostalsya-na-trube)]"&gt;https://uchi.ru/otvety/questions/a-i-b-sideli-na-trube-a-upalo-b-propalo-kto-ostalsya-na-trube)]&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;“Эта загадка связана с игрой букв(А,И,Б), а раз присутствует ИГРА БУКВ, то...” [[10](&lt;a href="https://proza.ru/2016/10/06/1316)]"&gt;https://proza.ru/2016/10/06/1316)]&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Вариации загадки&lt;/h3&gt;
&lt;p&gt;В русскоязычной культуре существуют различные вариации этой загадки, которые сохраняют её суть, но меняют детали:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;“А, И, Б сидели на трубе. А упала. Б пропала. Кто остался на трубе?” [[10](&lt;a href="https://proza.ru/2016/10/06/1316)]"&gt;https://proza.ru/2016/10/06/1316)]&lt;/a&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;“А и Б сидели на трубе. А упало, Б пропало, что осталось на трубе?” [[13](&lt;a href="https://otvet.mail.ru/question/54546059)]"&gt;https://otvet.mail.ru/question/54546059)]&lt;/a&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="3"&gt;
&lt;li&gt;“А и Б сидели на трубе, А уехал за границу, Б чихнул и... кто остался на трубе?” [[15](&lt;a href="https://uchi.ru/otvety/questions/a-i-b-sideli-na-trube-a-uehal-za-granitsu-b-chihnul-i-lyog-v-bolnitsu-kto-ostalsya-na-tru)]"&gt;https://uchi.ru/otvety/questions/a-i-b-sideli-na-trube-a-uehal-za-granitsu-b-chihnul-i-lyog-v-bolnitsu-kto-ostalsya-na-tru)]&lt;/a&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Эти вариации демонстрируют гибкость загадки и её способность адаптироваться к разным контекстам, сохраняя при этом суть.&lt;/p&gt;
&lt;h3&gt;Языковые особенности&lt;/h3&gt;
&lt;p&gt;Эта загадка демонстрирует несколько интересных языковых особенностей русского языка:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Игра с буквами&lt;/b&gt;: Загадка основана на игре с отдельными буквами русского алфавита (А, И, Б).&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;&lt;b&gt;Символическое представление&lt;/b&gt;: Каждая буква представляется как отдельное существо, которое может “сидеть”, “упасть” или “пропасть”.&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="3"&gt;
&lt;li&gt;&lt;b&gt;Слогovость&lt;/b&gt;: Русский язык, будучи слоговым, позволяет такую игру с отдельными буквами, что делает загадку возможной.&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="4"&gt;
&lt;li&gt;&lt;b&gt;Краткость и изящность&lt;/b&gt;: Ответ на загадку – всего одна буква “и”, что делает его особенно элегантным и удивительным.&lt;/li&gt;
&lt;/ol&gt;
&lt;h3&gt;Cultural context&lt;/h3&gt;
&lt;p&gt;Эта загадка отражает народную мудрость и любовь к языкознанию в русскоязычной культуре. Она часто используется для развития логического мышления и внимательности у детей, а также для развлечения взрослых. Загадка демонстрирует, как важны детали и как有时候 решение может быть проще, чем кажется.&lt;/p&gt;
&lt;h3&gt;Modern interpretations and references&lt;/h3&gt;
&lt;p&gt;Эта загадка продолжает использоваться в современном контексте:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;В детских садах и школах её используют для развития языковых навыков&lt;/li&gt;
&lt;li&gt;В интернет-форумах и социальных сетях она часто появляется в разделах с загадками&lt;/li&gt;
&lt;li&gt;В некоторых видеороликах для детей эта загадка используется как образец традиционной русской головоломки [[12](&lt;a href="https://www.youtube.com/watch?v=ZhVvZn6vkzc)]"&gt;https://www.youtube.com/watch?v=ZhVvZn6vkzc)]&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Conclusion&lt;/h3&gt;
&lt;p&gt;Загадка “А и Б сидели на трубе, А упала, Б пропала, кто остался на трубе?” представляет собой яркий пример традиционной русской головоломки, основывающейся на игре с буквами. Её суть заключается в том, чтобы понять, что после исчезновения А и Б на трубе остаётся “и”. Этот простой, но изящный ответ демонстрирует тонкости русского языка и народной мудрости.&lt;/p&gt;
&lt;p&gt;Эта загадка не только забавляет, но и развивает языковое мышление, что делает её ценным элементом русскоязычной культуры. Она напоминает нам о важности деталей и о том, как有时候 решение может быть проще, чем кажется.&lt;/p&gt;
&lt;h3&gt;References&lt;/h3&gt;
&lt;p&gt;[10] А и Б сидели на трубе... (Исаков Олег) / Проза.ру. &lt;a href="https://proza.ru/2016/10/06/1316"&gt;https://proza.ru/2016/10/06/1316&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[11] а и б сидели на трубе. а упало б пропало кто остался на трубе?. &lt;a href="https://uchi.ru/otvety/questions/a-i-b-sideli-na-trube-a-upalo-b-propalo-kto-ostalsya-na-trube"&gt;https://uchi.ru/otvety/questions/a-i-b-sideli-na-trube-a-upalo-b-propalo-kto-ostalsya-na-trube&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[12] Считалочка – загадка – А и Б сидели на трубе – YouTube. &lt;a href="https://www.youtube.com/watch?v=ZhVvZn6vkzc"&gt;https://www.youtube.com/watch?v=ZhVvZn6vkzc&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[13] А и Б сидели на трубе А упала, Б пропала, что осталось на трубе?. &lt;a href="https://otvet.mail.ru/question/54546059"&gt;https://otvet.mail.ru/question/54546059&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[15] А И Б СИДЕЛИ НА ТРУБЕ А УЕХАЛ ЗА ГРАНИЦУ Б ЧИХНУЛ И ... &lt;a href="https://uchi.ru/otvety/questions/a-i-b-sideli-na-trube-a-uehal-za-granitsu-b-chihnul-i-lyog-v-bolnitsu-kto-ostalsya-na-tru"&gt;https://uchi.ru/otvety/questions/a-i-b-sideli-na-trube-a-uehal-za-granitsu-b-chihnul-i-lyog-v-bolnitsu-kto-ostalsya-na-tru&lt;/a&gt;&lt;/p&gt;
</description>
</item>

<item>
<title>Основные тезисы статьи “AI Index 2025: State of AI in 10 Charts</title>
<guid isPermaLink="false">227</guid>
<link>https://gavrilov.info/all/osnovnye-tezisy-statyi-ai-index-2025-state-of-ai-in-10-charts/</link>
<pubDate>Wed, 09 Apr 2025 18:27:46 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/osnovnye-tezisy-statyi-ai-index-2025-state-of-ai-in-10-charts/</comments>
<description>
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_5769.jpeg" width="990" height="893" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Оригинал: &lt;a href="https://hai.stanford.edu/news/ai-index-2025-state-of-ai-in-10-charts"&gt;https://hai.stanford.edu/news/ai-index-2025-state-of-ai-in-10-charts&lt;/a&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;h4&gt;Основные тезисы статьи “AI Index 2025: State of AI in 10 Charts” :&lt;/h4&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Улучшение небольших моделей ИИ&lt;/b&gt;
&lt;ul&gt;
  &lt;li&gt;Модели с меньшим числом параметров достигают уровня крупных. Например, Microsoft Phi-3-mini (3.8 млрд параметров) в 2024 году показала результаты, сравнимые с моделью PaLM (540 млрд параметров) 2022 года. Это сокращение параметров в 142 раза за два года.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;&lt;b&gt;Снижение стоимости использования ИИ&lt;/b&gt;
&lt;ul&gt;
  &lt;li&gt;Стоимость обработки запросов для моделей уровня GPT-3.5 упала с $20 до $0.07 за миллион токенов (снижение в 280 раз за 18 месяцев). Цены на оборудование снижаются на 30% ежегодно, а энергоэффективность растет на 40%.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="3"&gt;
&lt;li&gt;&lt;b&gt;Китай сокращает разрыв с США&lt;/b&gt;
&lt;ul&gt;
  &lt;li&gt;США создали 40 значимых моделей ИИ в 2024 году, Китай — 15. Однако разрыв в качестве между американскими и китайскими моделями сократился до минимума на тестах MMLU и HumanEval. Китай лидирует по публикациям и патентам в области ИИ.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="4"&gt;
&lt;li&gt;&lt;b&gt;Рост проблемных инцидентов с ИИ&lt;/b&gt;
&lt;ul&gt;
  &lt;li&gt;Зафиксировано 233 инцидента, связанных с ИИ (+56.4% за год), включая дипфейки и случаи кибербуллинга.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="5"&gt;
&lt;li&gt;&lt;b&gt;Прогресс ИИ-агентов&lt;/b&gt;
&lt;ul&gt;
  &lt;li&gt;В коротких задачах (2 часа) ИИ превосходит людей в 4 раза, но при увеличении времени до 32 часов люди демонстрируют вдвое лучшие результаты.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="6"&gt;
&lt;li&gt;&lt;b&gt;Рекордные инвестиции в ИИ&lt;/b&gt;
&lt;ul&gt;
  &lt;li&gt;78% компаний внедрили ИИ в 2024 году (рост с 55% в 2023). Частные инвестиции США составили $109.1 млрд, Китая — $9.3 млрд.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="7"&gt;
&lt;li&gt;&lt;b&gt;Медицинские устройства с ИИ&lt;/b&gt;
&lt;ul&gt;
  &lt;li&gt;FDA одобрило 223 ИИ-устройства в 2023 году против 6 в 2015.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="8"&gt;
&lt;li&gt;&lt;b&gt;Регуляторная активность в США&lt;/b&gt;
&lt;ul&gt;
  &lt;li&gt;Число законов штатов, связанных с ИИ, выросло до 131 в 2024 году (в 2016 — 1).&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="9"&gt;
&lt;li&gt;&lt;b&gt;Региональный оптимизм&lt;/b&gt;
&lt;ul&gt;
  &lt;li&gt;В Китае, Индонезии и Таиланде более 77% населения видят в ИИ больше пользы, чем вреда. В США, Канаде и Нидерландах этот показатель ниже 40%.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="10"&gt;
&lt;li&gt;&lt;b&gt;Глобализация разработки ИИ&lt;/b&gt;
&lt;ul&gt;
  &lt;li&gt;Модели создаются в новых регионах: Ближний Восток, Латинская Америка, Юго-Восточная Азия.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;Синтез&lt;/h4&gt;
&lt;p&gt;Статья демонстрирует &lt;b&gt;динамичное развитие ИИ&lt;/b&gt; в 2024 году:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Технологический прогресс&lt;/b&gt;: Малые модели стали эффективнее, а стоимость их использования резко снизилась, что делает ИИ доступнее .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Интеграция в общество&lt;/b&gt;: ИИ активно применяется в медицине, транспорте (например, 150 тыс. поездок Waymo в неделю) и бизнесе, где 78% компаний используют технологии для повышения продуктивности .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Инвестиции и геополитика&lt;/b&gt;: США сохраняют лидерство, но Китай усиливает позиции. Глобальные инвестиции в генеративный ИИ достигли $33.9 млрд .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Этические вызовы&lt;/b&gt;: Рост инцидентов и нехватка стандартов оценки безопасности ИИ требуют усиления регулирования. Правительства, включая ЕС и ООН, разрабатывают новые рамки .&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;Выводы&lt;/h4&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Доступность и эффективность&lt;/b&gt; ИИ растут, но сохраняется разрыв между регионами в инфраструктуре и образовании (например, 81% учителей в США не готовы преподавать ИИ) .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Регулирование отстает&lt;/b&gt; от технологий: несмотря на рост законов, стандарты оценки рисков остаются редкими .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Оптимизм vs. скептицизм&lt;/b&gt;: В Азии выше доверие к ИИ, тогда как на Западе преобладают опасения, связанные с этикой и заменой рабочих мест .&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Будущее за гибридными решениями&lt;/b&gt;: ИИ-агенты уже превосходят людей в узких задачах, но для сложных когнитивных процессов требуется симбиоз с человеком .&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Статья подчеркивает, что &lt;b&gt;ИИ трансформирует общество&lt;/b&gt;, но для устойчивого развития необходимы глобальное сотрудничество, инвестиции в образование и прозрачные стандарты.&lt;/p&gt;
</description>
</item>


</channel>
</rss>