<?xml version="1.0" encoding="utf-8"?> 
<rss version="2.0"
  xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd"
  xmlns:atom="http://www.w3.org/2005/Atom">

<channel>

<title>Yuriy Gavrilov: posts tagged Data Mesh</title>
<link>https://gavrilov.info/tags/data-mesh/</link>
<description>Welcome to my personal place for love, peace and happiness 🤖 Yuiry Gavrilov</description>
<author></author>
<language>en</language>
<generator>Aegea 11.4 (v4171e)</generator>

<itunes:owner>
<itunes:name></itunes:name>
<itunes:email>yvgavrilov@gmail.com</itunes:email>
</itunes:owner>
<itunes:subtitle>Welcome to my personal place for love, peace and happiness 🤖 Yuiry Gavrilov</itunes:subtitle>
<itunes:image href="https://gavrilov.info/pictures/userpic/userpic-square@2x.jpg?1643451008" />
<itunes:explicit>no</itunes:explicit>

<item>
<title>Еще один дата каталожик – Marmot</title>
<guid isPermaLink="false">315</guid>
<link>https://gavrilov.info/all/esche-odin-data-katalozhik-marmot/</link>
<pubDate>Sun, 08 Feb 2026 00:06:32 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/esche-odin-data-katalozhik-marmot/</comments>
<description>
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2026-02-08-v-00.05.35.png" width="434" height="364" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;&lt;a href="https://github.com/marmotdata/marmot"&gt;https://github.com/marmotdata/marmot&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Marmot is an open-source data catalog designed for teams who want powerful data discovery without enterprise complexity. Built with a focus on simplicity and speed, Marmot helps you catalog assets across your entire data stack – from databases and APIs to message queues and data pipelines.&lt;/p&gt;
&lt;p&gt;Unlike traditional catalogs that require extensive infrastructure and configuration, Marmot ships as a single binary with an intuitive UI, making it easy to deploy and start cataloging in minutes.&lt;/p&gt;
&lt;p&gt;Built for Modern Data Teams&lt;/p&gt;
&lt;p&gt;Deploy in Minutes: Single binary, Docker, or Kubernetes – no complex setup required&lt;br /&gt;
Powerful Search: Powerful query language with full-text, metadata, and boolean operators&lt;br /&gt;
Track Lineage: Interactive dependency graphs to understand data flows and impact&lt;br /&gt;
Flexible Integrations: CLI, REST API, Terraform, and Pulumi – catalog assets your way&lt;br /&gt;
Lightweight: PostgreSQL-backed with minimal resource requirements&lt;/p&gt;
</description>
</item>

<item>
<title>Масштабируемые данные. 2-е изд. (Data Management at Scale)</title>
<guid isPermaLink="false">245</guid>
<link>https://gavrilov.info/all/masshtabiruemye-dannye-2-e-izd-data-management-at-scale/</link>
<pubDate>Fri, 20 Jun 2025 21:28:47 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/masshtabiruemye-dannye-2-e-izd-data-management-at-scale/</comments>
<description>
&lt;p&gt;Свежак, начал читать 📚 &lt;a href="https://www.piter.com/product/masshtabiruemye-dannye-vysokonagruzhennye-arhitektury-data-mesh-i-data-fabric-2-e-izd"&gt;Около 700 рублей стоит цифровая версия тут &lt;/a&gt;&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/telegram-cloud-photo-size-2-5350736567813140293-y.jpg" width="792" height="1280" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Вот обзор и рецензия на книгу «Масштабируемые данные от Gemini 2.5 Pro. Высоконагруженные архитектуры, Data Mesh и Data Fabric. 2-е изд.», основанные на информации об ее оригинальном издании “Data Management at Scale” за авторством Питхайна Стренгхолта.&lt;/p&gt;
&lt;h4&gt;Обзор и рецензия на книгу «Масштабируемые данные. 2-е изд.» Питхайна Стренгхолта&lt;/h4&gt;
&lt;p&gt;Эта книга является русским изданием работы Питхайна Стренгхолта “Data Management at Scale” и посвящена современным подходам к управлению данными в крупных организациях. Она фокусируется на архитектурных концепциях, таких как &lt;b&gt;Data Mesh&lt;/b&gt; и &lt;b&gt;Data Fabric&lt;/b&gt;, которые призваны решить проблемы традиционных монолитных систем, вроде централизованных озер и хранилищ данных.&lt;/p&gt;
&lt;h5&gt;О чем эта книга?&lt;/h5&gt;
&lt;p&gt;Основная идея, которую продвигает автор, заключается в переходе от централизованной модели управления данными к децентрализованной. Вместо того чтобы одна команда инженеров отвечала за все данные компании, Стренгхолт предлагает распределить ответственность между доменными командами (например, команда маркетинга, продаж, логистики).&lt;/p&gt;
&lt;p&gt;Ключевые концепции, разбираемые в книге:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Децентрализация и Data Mesh: Книга подробно описывает архитектуру Data Mesh, впервые предложенную Жэмаком Дегани и популяризированную Мартином Фаулером. Этот подход рассматривает данные как продукт и передает владение ими командам, которые эти данные создают и лучше всего понимают &lt;a href="https://medium.com/it-architecture/review-data-management-at-scale-fc52fda45e0b"&gt;https://medium.com/it-architecture/review-data-management-at-scale-fc52fda45e0b&lt;/a&gt;. При этом метаданные остаются централизованными, что позволяет другим командам легко находить, понимать и использовать нужные им данные.&lt;/li&gt;
&lt;li&gt;Данные как продукт (Data as a Product): Это фундаментальный сдвиг в мышлении. Данные перестают быть побочным эффектом работы приложений и становятся полноценным продуктом со своим жизненным циклом, владельцем, стандартами качества и SLA. Доступ к таким продуктам данных обычно предоставляется через стандартизированные API &lt;a href="https://www.linkedin.com/pulse/data-mesh-book-review-beyond-antti-pikkusaari"&gt;https://www.linkedin.com/pulse/data-mesh-book-review-beyond-antti-pikkusaari&lt;/a&gt;.&lt;/li&gt;
&lt;li&gt;Архитектурные паттерны: Автор рассматривает различные шаблоны проектирования для создания продуктов данных и организации их взаимодействия в рамках компании &lt;a href="https://www.oreilly.com/library/view/data-management-at/9781098138851/"&gt;https://www.oreilly.com/library/view/data-management-at/9781098138851/&lt;/a&gt;.&lt;/li&gt;
&lt;/ol&gt;
&lt;h5&gt;Сильные стороны&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;Стратегический взгляд: Книга дает отличное высокоуровневое представление о том, как переосмыслить управление данными в масштабах всей организации. Она идеально подходит для архитекторов и руководителей, которым нужно понять «почему» и «что», а не «как» в деталях.&lt;/li&gt;
&lt;li&gt;Актуальность: Концепции Data Mesh и Data Fabric находятся на пике популярности. Книга помогает систематизировать знания по этим темам и понять их философские основы.&lt;/li&gt;
&lt;li&gt;Четкая аргументация: Автор убедительно доказывает, почему традиционные подходы к данным перестают работать при росте компании и увеличении сложности, и почему децентрализация ответственности является логичным шагом эволюции.&lt;/li&gt;
&lt;/ul&gt;
&lt;h5&gt;Критика и слабые стороны&lt;/h5&gt;
&lt;p&gt;Основная претензия, которую можно встретить в отзывах на оригинальное издание, — это высокий уровень абстракции и недостаток практических деталей реализации.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Нехватка технических деталей: Книга отлично объясняет принципы, но не углубляется в конкретные технологии и инструменты. Например, она говорит о необходимости API для доступа к данным, но не предлагает детальных руководств по их созданию или выбору технологий &lt;a href="https://www.linkedin.com/pulse/data-mesh-book-review-beyond-antti-pikkusaari"&gt;https://www.linkedin.com/pulse/data-mesh-book-review-beyond-antti-pikkusaari&lt;/a&gt;.&lt;/li&gt;
&lt;li&gt;Полет в облаках: Один из рецензентов на Goodreads метко подмечает, что книга «предпочитает витать в облаках», не опускаясь на более низкий уровень для разъяснения тонкостей. Например, остается не до конца ясным, где проходит грань между данными, метаданными и кодом в рамках одного «продукта данных» &lt;a href="https://www.goodreads.com/book/show/123858053-data-management-at-scale"&gt;data-management-at-scale&lt;/a&gt;.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Инженеру, который ищет пошаговое руководство по построению Data Mesh, эта книга может показаться слишком теоретической.&lt;/p&gt;
&lt;h5&gt;Кому стоит читать эту книгу?&lt;/h5&gt;
&lt;ul&gt;
&lt;li&gt;Дата-архитекторам, CDO (Chief Data Officer) и руководителям отделов данных: Для них это мастрид. Книга поможет сформировать стратегическое видение и защитить новые подходы перед бизнесом.&lt;/li&gt;
&lt;li&gt;Продукт-менеджерам и тимлидам: Поможет понять, как выстраивать процессы вокруг «данных как продукта» и эффективно взаимодействовать с другими командами.&lt;/li&gt;
&lt;li&gt;Дата-инженерам и аналитикам: Будет полезна для понимания общей картины и современных трендов, но ее нужно будет дополнять более техническими статьями и докладами для практической реализации.&lt;/li&gt;
&lt;/ul&gt;
&lt;h5&gt;Заключение&lt;/h5&gt;
&lt;p&gt;«Масштабируемые данные» Питхайна Стренгхолта — это важный и своевременный труд, который предлагает стратегический взгляд на решение проблем управления данными в больших компаниях. Это не техническое руководство, а скорее манифест и философское обоснование для перехода к децентрализованным, продуктово-ориентированным архитектурам, таким как Data Mesh.&lt;/p&gt;
&lt;p&gt;Книга блестяще отвечает на вопрос «Зачем?», но оставляет читателю самому искать ответ на вопрос «Как?». Если вы архитектор или менеджер, отвечающий за стратегию данных, эта книга станет для вас ценным источником идей. Если вы инженер, ищущий готовые рецепты, — будьте готовы к тому, что это лишь отправная точка для дальнейших исследований.&lt;/p&gt;
&lt;p&gt;Кабанчик отдыхает :) начинаем разводить рептилий 🐊&lt;/p&gt;
&lt;p&gt;&lt;video controls style="width: 100%; max-width: 740px; height: auto;"&gt;&lt;br /&gt;
&lt;source src="http://a.gavrilov.info/data/posts/IMG_7101.MP4" type="video/mp4"&gt;&lt;br /&gt;
Ваш браузер не поддерживает видео.&lt;br /&gt;
&lt;/video&gt;&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/kaban.webp" width="512" height="512" alt="" /&gt;
&lt;/div&gt;
</description>
</item>

<item>
<title>От архитектуры data lakehouse к data mesh</title>
<guid isPermaLink="false">210</guid>
<link>https://gavrilov.info/all/ot-arhitektury-data-lakehouse-k-data-mesh/</link>
<pubDate>Mon, 24 Mar 2025 22:35:36 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/ot-arhitektury-data-lakehouse-k-data-mesh/</comments>
<description>
&lt;p&gt;Перевод: &lt;a href="https://medium.com/adevinta-tech-blog/from-lakehouse-architecture-to-data-mesh-c532c91f7b61"&gt;https://medium.com/adevinta-tech-blog/from-lakehouse-architecture-to-data-mesh-c532c91f7b61&lt;/a&gt;&lt;/p&gt;
&lt;h3&gt;От архитектуры data lakehouse к data mesh&lt;/h3&gt;
&lt;p&gt;В Adevinta мы верим в то, что данные являются продуктом, который позволяет принимать обоснованные решения и внедрять инновации во все наши бизнес-подразделения. Чтобы извлечь максимальную пользу из наших данных, нам необходимо предоставить нашим командам инструменты и инфраструктуру для обнаружения, доступа и анализа данных автономно. Наш путь к этой цели начался с централизованной архитектуры data lakehouse, и теперь мы переходим к более децентрализованной парадигме data mesh. В этой статье мы поделимся нашей мотивацией, этапами и решениями на этом пути.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;От централизованного к децентрализованному: почему мы это делаем?&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;В начале у нас была централизованная команда данных, которая отвечала за сбор, обработку и обслуживание всех данных в организации. Мы построили data lakehouse на основе облачных хранилищ, таких как AWS S3, и движков обработки, таких как Spark и Databricks. Эта централизованная архитектура хорошо работала в начале, когда наши потребности в данных были относительно простыми.&lt;/p&gt;
&lt;p&gt;Однако по мере роста Adevinta и увеличения сложности наших бизнес-операций централизованная архитектура стала узким местом. Централизованной команде данных было сложно удовлетворить разнообразные и меняющиеся потребности различных бизнес-подразделений. Существовали следующие проблемы:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Медленная доставка:** Требования к данным должны были проходить через централизованную команду, что порождало задержки и снижало скорость итераций.&lt;/li&gt;
&lt;li&gt;Ограниченное владение:** Бизнес-подразделения имели небольшой контроль над данными, которые им были необходимы, что препятствовало инновациям и экспериментированию.&lt;/li&gt;
&lt;li&gt;Отсутствие масштабируемости:** Централизованной команде данных было сложно масштабировать свои операции, чтобы соответствовать растущему объему и сложности данных.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Чтобы преодолеть эти проблемы, мы решили перейти к архитектуре data mesh. Data mesh – это децентрализованный подход к управлению данными, который наделяет конкретные бизнес-подразделения (domain) ответственностью за их собственные данные. Каждое business domain владеет своими данными, разрабатывает и обслуживает свои конвейеры данных, а также предоставляет свои данные другим domain в виде продуктов данных.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Путь к Data Mesh: этапы и решения&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Наш переход к data mesh является постепенным процессом, который включает в себя несколько этапов.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Шаг 1: Выявление и приведение в соответствие Domains:&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Первым шагом было выявление основных domains в Adevinta, например, маркетинг, финансы, поиск и монетизация. Важно соответствие domains организационной структуре и то, что каждая domain имеет четкого владельца и понимание данных, за которые они несут ответственность.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Шаг 2: Объявление Domain Data Owners:&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;После определения domains нам нужно было назначить владельцев данных для каждой domain. Domain data owners являются владельцами данных, генерируемых их domain, и отвечают за качество, доступность и управляемость данных.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Шаг 3: Определение продукта данных:&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Затем каждая domain должна определить свои продукты данных. Продукты данных – это переиспользуемые компоненты данных, предоставляющие ценность различным командам. Примеры продуктов данных включают агрегации данных, машинное обучение и отчетность.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Шаг 4: Создание самостоятельной платформы данных:&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Чтобы дать возможность domains управлять своими данными, нам нужно было создать самостоятельную платформу данных. Платформа предоставляет инфраструктуру и инструменты, необходимые domains для создания, развертывания и обслуживания своих конвейеров данных. Платформа должна быть самообслуживаемой, надежной и безопасной.&lt;/p&gt;
&lt;p&gt;В Adevinta мы опираемся на существующую инфраструктуру data lakehouse и развиваем ее для поддержки data mesh. Это включает в себя:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Централизованный каталог данных:** Каталог данных предоставляет всем domains доступ к метаданным и схемам данных, позволяя им обнаруживать и понимать продукты данных, доступные в организации.&lt;/li&gt;
&lt;li&gt;Стандарты качества данных:** Централизованная команда данных поддерживает стандарты качества данных и политики, чтобы обеспечить высокое качество данных. Команды доменов несут ответственность за соблюдение этих стандартов и политик.&lt;/li&gt;
&lt;li&gt;Аутентификация, авторизация и аудит (AAA):** Централизованная AAA защищает доступ к данным и соответствие требованиям безопасности.&lt;/li&gt;
&lt;li&gt;Мониторинг и оповещения:** Платформа предоставляет централизованные панели мониторинга и оповещения, позволяющие domains проактивно отслеживать состояние и производительность своих конвейеров данных.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Шаг 5: Обучение, пропаганда и повторение:&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Наконец, очень важно обучать и пропагандировать data mesh во всей организации. Нам нужно было убедиться, что все понимают принципы data mesh и преимущества, которые он приносит. Важно начинать с малого, повторять и учиться на наших ошибках.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Решения, которые нам необходимо было принять:&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Переход к парадигме data mesh требует принятия ряда важных решений. Некоторые из наиболее серьезных из них включают в себя:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Определение границ domain:** Критически важно определить границы каждого domain четким и однозначным образом. Это гарантирует, что каждая domain четко понимает данные, за которые она несет ответственность.&lt;/li&gt;
&lt;li&gt;Выбор технологии:** необходимо тщательно выбирать правильную технологию для data mesh. Платформа должна быть самообслуживаемой, надежной и безопасной.&lt;/li&gt;
&lt;li&gt;Управление изменениями:** Переход к data mesh требует значительных изменений в том, как организация относится к управлению данными. Важно справиться с этими изменениями эффективным образом.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Преимущества Data Mesh&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Реализовав архитектуру data mesh, мы ожидаем получить следующие преимущества:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Улучшенная скорость доставки:** domains могут самостоятельно разрабатывать и развертывать свои конвейеры данных, сокращая время, необходимое для предоставления новых продуктов данных.&lt;/li&gt;
&lt;li&gt;Повышенное владение:** domains имеют полный контроль над своими данными, что позволяет им внедрять инновации и экспериментировать с использованием данных.&lt;/li&gt;
&lt;li&gt;Улучшенная масштабируемость:** архитектура data mesh более масштабируема, чем централизованная архитектура, позволяя нам адаптироваться к растущему объему и сложности данных.&lt;/li&gt;
&lt;li&gt;Повышение качества данных:** domains лучше осведомлены о своих данных, что ведет к более высокому качеству данных.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Вывод&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Переход от архитектуры data lakehouse к data mesh – это значительное изменение для Adevinta. Однако мы полагаем, что это необходимо для того, чтобы раскрыть весь потенциал наших данных. Наделив наши бизнес-domains ответственностью за их собственные данные, мы сможем ускорить инновации, принимать более обоснованные решения и, в конечном счете, лучше обслуживать наших клиентов. Этот путь является непрерывным процессом, и мы полны решимости сделать data mesh успешным в Adevinta.&lt;/p&gt;
&lt;p&gt;Статья переведена с помощью gtp4o search preview – без доступа через VPN&lt;/p&gt;
</description>
</item>

<item>
<title>Эволюция бизнес-аналитики: от монолитной к компонуемой архитектуре</title>
<guid isPermaLink="false">193</guid>
<link>https://gavrilov.info/all/evolyuciya-biznes-analitiki-ot-monolitnoy-k-komponuemoy-arhitekt/</link>
<pubDate>Thu, 13 Feb 2025 01:23:28 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/evolyuciya-biznes-analitiki-ot-monolitnoy-k-komponuemoy-arhitekt/</comments>
<description>
&lt;p&gt;Перевод: &lt;a href="https://www.pracdata.io/p/the-evolution-of-business-intelligence-stack"&gt;https://www.pracdata.io/p/the-evolution-of-business-intelligence-stack&lt;/a&gt;&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-132.png" width="1336" height="944" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;По мере того, как мы вступаем в 2025 год, область инженерии данных продолжает свою стремительную эволюцию. В этой серии мы рассмотрим преобразующие тенденции, меняющие ландшафт инженерии данных, от новых архитектурных шаблонов до новых подходов к инструментарию.&lt;/p&gt;
&lt;p&gt;Это первая часть нашей серии, посвященная эволюции архитектуры бизнес-аналитики (BI).&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Введение&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Ландшафт бизнес-аналитики (BI) претерпел значительные преобразования в последние годы, особенно в том, как данные представляются и обрабатываются.&lt;/p&gt;
&lt;p&gt;Эта эволюция отражает более широкий переход от монолитных архитектур к более гибким, компонуемым решениям, которые лучше отвечают современным аналитическим потребностям.&lt;/p&gt;
&lt;p&gt;В этой статье прослеживается эволюция BI-архитектуры через несколько ключевых этапов: от традиционных монолитных систем, через появление безголовой (headless) и бездонной (bottomless**) BI, до последних разработок в области BI-as-Code и встроенной аналитики.&lt;/p&gt;
&lt;p&gt;** 😂 👯‍♀️&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/evolyuciya-biznes-analitiki-ot-monolitnoy-k-komponuemoy-arhitekt.png" width="2156" height="222" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Если серьезно, то наверное лучший вариант бескрайний&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;&lt;b&gt;Традиционная BI-архитектура: Монолитный подход&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Традиционные BI-инструменты были построены как комплексные, тесно связанные системы со значительным акцентом на дизайне пользовательского интерфейса.&lt;/p&gt;
&lt;p&gt;Эти системы обеспечивали обширную гибкость благодаря функциональности “кликай и смотри” для нарезки, разделения и группировки данных с использованием различных визуализаций. В своей основе эти системы состояли из трех взаимосвязанных компонентов, которые работали в гармонии для предоставления бизнес-аналитики.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-133.png" width="473" height="487" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;*Традиционный BI-стек*&lt;/p&gt;
&lt;p&gt;Серверный уровень служил основой, обрабатывая прием данных из источников OLAP и создавая оптимизированные кубы данных на сервере. Эти кубы содержали предварительно вычисленные измерения, которые позволяли исследовать данные в режиме реального времени.&lt;/p&gt;
&lt;p&gt;Работая совместно с серверной частью, клиентский уровень предоставлял интерфейс визуализации, подключаясь к серверной части для доступа к кубам данных и построения панелей мониторинга.&lt;/p&gt;
&lt;p&gt;Семантический уровень завершал архитектуру, определяя ключевые показатели эффективности (KPI) и метрики, встроенные в BI-программное обеспечение.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Недостатки традиционных BI-инструментов&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Хотя эти традиционные системы были мощными, они имели значительные накладные расходы.&lt;/p&gt;
&lt;p&gt;Организациям требовалась существенная инфраструктура для локального развертывания до того, как управляемые облачные BI-сервисы стали более доступными, а стоимость лицензирования часто была непомерно высокой.&lt;/p&gt;
&lt;p&gt;Сроки реализации были длительными, даже демонстрации концепции требовали недель настройки и конфигурации. Для предприятий, обслуживающих большую пользовательскую базу, требования к ресурсам были особенно высокими.&lt;/p&gt;
&lt;p&gt;Эти фундаментальные ограничения в сочетании с растущей потребностью в гибкости и экономичности вызвали серию архитектурных инноваций в области BI.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Появление бездонных (Bottomless) BI-инструментов&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;В ответ на эти вызовы появилось новое поколение легких, дезагрегированных BI-инструментов. Заметные решения с открытым исходным кодом, такие как Apache Superset, Metabase и Redash, начали появляться около десяти лет назад, причем Superset, первоначально разработанный в Airbnb, приобрел особую известность в экосистеме.&lt;/p&gt;
&lt;p&gt;Эти новые инструменты приняли “безднную” архитектуру, устранив тяжелый серверный уровень, традиционно используемый для вычислений, построения и кеширования объектов куба.&lt;/p&gt;
&lt;p&gt;Вместо того чтобы поддерживать свой собственный вычислительный уровень, они полагаются на подключенные исходные движки для запроса и предоставления данных на панели мониторинга во время выполнения. Этот архитектурный сдвиг вводит различные стратегии для обслуживания данных.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-134.png" width="1456" height="1147" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;&lt;b&gt;Работа с задержкой запросов&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Отсутствие сервера отчетов представляет собой серьезную проблему для бездонных BI-инструментов: управление задержкой запросов при доступе к данным в режиме реального времени.&lt;/p&gt;
&lt;p&gt;Чтобы решить эту проблему, эти инструменты используют несколько стратегий оптимизации. Один из ключевых подходов включает использование предварительно вычисленных агрегатов, хранящихся в основном хранилище данных, что позволяет панелям мониторинга эффективно предоставлять результаты.&lt;/p&gt;
&lt;p&gt;Кроме того, такие инструменты, как Superset, реализуют уровни кеширования с использованием Redis для хранения часто используемых наборов данных. Этот механизм кеширования оказывается особенно эффективным: после того, как первоначальный запрос загружает набор данных, последующие визуализации и перезагрузки панели мониторинга могут обращаться к кешированной версии до тех пор, пока не изменятся базовые данные, что значительно сокращает время отклика.&lt;/p&gt;
&lt;p&gt;Для компаний, работающих с большими объемами данных, интеграция со специализированными OLAP-движками реального времени, такими как Druid и ClickHouse, обеспечивает аналитические возможности с низкой задержкой.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-135.png" width="1339" height="1173" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;&lt;b&gt;Появление универсального семантического слоя&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;По мере того, как отрасль стремилась к большей гибкости в своем BI-стеке, переносимый семантический слой, или то, что известно как безголовая (headless) BI, появился в качестве промежуточного шага между традиционными монолитными системами и полностью легкими решениями.&lt;/p&gt;
&lt;p&gt;Платформы безголовой BI предоставляют выделенный семантический слой, а некоторые объединяют движок запросов, позволяя организациям использовать любой инструмент визуализации по своему выбору. Этот подход полностью отделяет уровень представления (фронтенд) от семантического слоя.&lt;/p&gt;
&lt;p&gt;С помощью таких инструментов, как Cube и MetricFlow (теперь часть dbt Labs), например, организации могут определять свои метрики и модели данных в центральном месте, а затем подключать различные инструменты визуализации, пользовательские приложения или легкие BI-решения к этому семантическому слою.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-136.png" width="542" height="755" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Этот архитектурный шаблон предлагает несколько преимуществ по сравнению с традиционными BI-системами. Он позволяет организациям поддерживать согласованные определения метрик в различных инструментах визуализации, поддерживает несколько интерфейсных приложений одновременно и обеспечивает лучшие возможности интеграции с современными стеками данных.&lt;/p&gt;
&lt;p&gt;Семантический слой действует как универсальный переводчик между источниками данных и уровнями визуализации, обеспечивая согласованную бизнес-логику во всех аналитических приложениях.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Движение BI-as-Code&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;В последние годы наблюдается появление BI-as-Code, представляющего собой еще более легкий подход к разработке панелей мониторинга и интерактивных приложений для работы с данными.&lt;/p&gt;
&lt;p&gt;Этот сдвиг парадигмы привносит рабочие процессы разработки программного обеспечения в разработку BI, позволяя использовать контроль версий, тестирование и методы непрерывной интеграции. Поскольку код служит основной абстракцией, а не пользовательским интерфейсом, разработчики могут реализовывать правильные рабочие процессы разработки перед развертыванием в производственной среде.&lt;/p&gt;
&lt;p&gt;Известные инструменты в этой области, такие как Streamlit, легко интегрируются с экосистемой Python, позволяя разработчикам оставаться в рамках своих проектов Python без необходимости установки внешнего программного обеспечения для создания панелей мониторинга и приложений для работы с данными.&lt;/p&gt;
&lt;p&gt;Этот подход делает упор на простоту и скорость, используя SQL и декларативные инструменты, такие как YAML, для создания панелей мониторинга. Полученные веб-приложения можно легко разместить самостоятельно, обеспечивая гибкость развертывания.&lt;/p&gt;
&lt;p&gt;Хотя Streamlit лидирует по популярности, в последние годы появились новые решения с открытым исходным кодом, такие как Evidence, Rill, Vizro и Quary, каждое из которых привносит свой собственный подход к концепции BI-as-Code.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-137.png" width="688" height="745" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;&lt;b&gt;Ограничения BI-as-Code&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Инструменты BI-as-Code в настоящее время имеют ограничения с точки зрения интерактивных функций исследования данных и предоставления BI-возможностей корпоративного уровня.&lt;/p&gt;
&lt;p&gt;Они не обеспечивают тот же пользовательский опыт для нарезки и разделения данных, что и традиционные BI-инструменты, и им не хватает поддержки управления данными и семантического слоя, которые есть как в традиционных, так и в легких BI-решениях.&lt;/p&gt;
&lt;p&gt;Тем не менее, BI-as-Code все чаще используется различными способами, например, командами специалистов по обработке данных, создающими интерактивные автономные приложения, командами разработчиков продуктов, создающими встроенные функции аналитики, и аналитиками, разрабатывающими внутренние приложения для работы с данными.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Новая развивающаяся тенденция: BI + Встроенная аналитика&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Последняя эволюция в BI-архитектуре включает интеграцию высокопроизводительных встраиваемых OLAP-движков запросов, таких как Apache DataFusion и DuckDB.&lt;/p&gt;
&lt;p&gt;Этот подход устраняет несколько пробелов в текущем ландшафте, сохраняя при этом преимущества легких, дезагрегированных архитектур.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-138.png" width="1209" height="1094" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Новая полнофункциональная компонуемая BI-архитектура дает несколько ключевых преимуществ:&lt;/p&gt;
&lt;p&gt;Во-первых, она предлагает настоящую компонуемость и совместимость с возможностью замены встроенных вычислительных движков по мере необходимости, сохраняя при этом автономный семантический слой для определения метрик.&lt;/p&gt;
&lt;p&gt;Возможности встроенной аналитики особенно мощны благодаря интеграции без копирования через стандартные фреймворки, в основном Apache Arrow, обеспечивающей доступ к данным на уровне микросекунд через оптимизированные столбчатые форматы в памяти.&lt;/p&gt;
&lt;p&gt;Интеграция без копирования относится к методу оптимизации производительности, при котором доступ к данным и их обработка могут осуществляться без необходимости сериализации и преобразования данных между различными представлениями в памяти. В контексте DataFusion и Apache Arrow это означает, что когда данные загружаются в память в столбчатом формате Arrow, DataFusion может напрямую выполнять вычисления с этими данными без необходимости их преобразования или копирования во внутренний формат.&lt;/p&gt;
&lt;p&gt;Прямая поддержка озер данных и lakehouse представляет собой еще один значительный шаг вперед, позволяя командам создавать панели мониторинга непосредственно поверх открытых табличных форматов, таких как Apache Iceberg и Apache Hudi, без промежуточного перемещения данных.&lt;/p&gt;
&lt;p&gt;Эта возможность в сочетании с комплексной поддержкой федеративных запросов решает давнюю проблему в существующих легких BI-инструментах, которые с трудом эффективно объединяли данные из нескольких источников без необходимости использования внешнего движка федеративных запросов.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Внедрение в отрасли&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Внедрение встраиваемых движков запросов в отрасли набирает обороты в экосистеме BI.  Коммерческие поставщики возглавляют эту трансформацию: Omni интегрировала DuckDB в качестве своего основного аналитического движка, в то время как Cube.dev реализовала сложное сочетание Apache Arrow и DataFusion в своей безголовой BI-архитектуре.&lt;/p&gt;
&lt;p&gt;Аналогичным образом, GoodData приняла эту тенденцию, реализовав Apache Arrow в качестве основы уровня кеширования своей системы FlexQuery, а Preset (Managed Superset) интегрировалась с MotherDuck (Managed DuckDB).&lt;/p&gt;
&lt;p&gt;В области открытого исходного кода и Superset (с использованием библиотеки duckdb-engine), и Metabase теперь поддерживают встроенное подключение DuckDB с потенциальной будущей интеграцией в их основные движки.&lt;/p&gt;
&lt;p&gt;Движение BI-as-Code также приняло встраиваемые движки. Rilldata объявила об интеграции DuckDB в 2023 году для автоматического профилирования и интерактивного моделирования при разработке панелей мониторинга, в то время как Evidence представила &lt;a href="https://evidence.dev/blog/why-we-built-usql"&gt;Universal SQL в 2024 году&lt;/a&gt;, основанный на реализации WebAssembly от DuckDB.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Заключение&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Ландшафт бизнес-аналитики продолжает развиваться в сторону более гибких и эффективных решений.&lt;/p&gt;
&lt;p&gt;Каждое архитектурное изменение принесло явные преимущества: безголовая BI обеспечила согласованность метрик между инструментами, бездонная BI снизила сложность инфраструктуры, BI-as-Code привнесла рабочие процессы разработчиков в аналитику, а встроенные движки теперь объединяют эти преимущества с высокопроизводительными возможностями запросов.&lt;/p&gt;
&lt;p&gt;Интеграция встраиваемых движков запросов с легкими BI-инструментами представляет собой перспективное направление для реализации легкой BI, объединяющее лучшие аспекты традиционных BI-возможностей с современными архитектурными шаблонами. По мере развития этих технологий и роста экосистемы компании могут рассчитывать на все более сложные, но компонуемые решения для своих аналитических потребностей.&lt;/p&gt;
</description>
</item>

<item>
<title>Ландшафт открытого исходного кода в области инженерии данных 2025</title>
<guid isPermaLink="false">192</guid>
<link>https://gavrilov.info/all/landshaft-otkrytogo-ishodnogo-koda-v-oblasti-inzhenerii-dannyh/</link>
<pubDate>Thu, 13 Feb 2025 01:14:33 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/landshaft-otkrytogo-ishodnogo-koda-v-oblasti-inzhenerii-dannyh/</comments>
<description>
&lt;p&gt;&lt;b&gt;Перевод&lt;/b&gt; &lt;a href="https://www.pracdata.io/p/open-source-data-engineering-landscape-2025"&gt;Open Source Data Engineering Landscape 2025&lt;/a&gt;&lt;/p&gt;
&lt;h3&gt;Введение&lt;/h3&gt;
&lt;p&gt;Сфера Open Source инструментов для инженерии данных продолжает стремительно развиваться, демонстрируя значительный прогресс в области хранения, обработки, интеграции и аналитики данных в 2024 году.&lt;/p&gt;
&lt;p&gt;Это второй год публикации обзора ландшафта Open Source инструментов для инженерии данных. Цель обзора — выявить и представить ключевые активные проекты и известные инструменты в этой области, а также предоставить всесторонний обзор динамично развивающейся экосистемы инженерии данных, основных тенденций и разработок.&lt;/p&gt;
&lt;p&gt;Хотя этот обзор публикуется ежегодно, соответствующий репозиторий GitHub обновляется регулярно в течение года. Не стесняйтесь вносить свой вклад, если заметите какой-либо недостающий компонент.&lt;/p&gt;
&lt;h3&gt;Методология исследования&lt;/h3&gt;
&lt;p&gt;Проведение такого обширного исследования требует значительных усилий и времени. Я постоянно исследую и стараюсь быть в курсе значительных событий в экосистеме инженерии данных в течение всего года, включая новости, мероприятия, тенденции, отчеты и достижения.&lt;/p&gt;
&lt;p&gt;В прошлом году я создал свою собственную небольшую платформу данных для отслеживания событий публичных репозиториев GitHub, что позволило лучше анализировать метрики Open Source инструментов, связанные с GitHub, такие как активность кода, количество звезд, вовлеченность пользователей и разрешение проблем.&lt;/p&gt;
&lt;p&gt;Стек включает в себя озеро данных (S3), Parquet в качестве формата сериализации, DuckDB для обработки и аналитики, Apache NiFi для интеграции данных, Apache Superset для визуализации и PostgreSQL для управления метаданными, а также другие инструменты. Эта установка позволила мне собрать около 1 ТБ необработанных данных о событиях GitHub, состоящих из миллиардов записей, а также агрегированный набор данных, который накапливается ежедневно, в общей сложности более 500 миллионов записей за 2024 год.&lt;/p&gt;
&lt;h3&gt;Критерии выбора инструментов&lt;/h3&gt;
&lt;p&gt;Доступных Open Source проектов для каждой категории, очевидно, много, поэтому включить каждый инструмент и проект в представленный обзор непрактично.&lt;/p&gt;
&lt;p&gt;Хотя страница GitHub содержит более полный список инструментов, ежегодно публикуемый обзор содержит только активные проекты, исключая неактивные и довольно новые проекты без минимальной зрелости или популярности. Однако не все включенные инструменты могут быть полностью готовы к промышленному использованию; некоторые все еще находятся на пути к зрелости.&lt;/p&gt;
&lt;p&gt;Итак, без лишних слов, представляем обзор Open Source инструментов для инженерии данных 2025 года:&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-117.png" width="1456" height="1129" alt="" /&gt;
&lt;/div&gt;
&lt;h3&gt;Обзор Open Source инструментов для инженерии данных 2025&lt;/h3&gt;
&lt;h3&gt;Состояние Open Source в 2025 году&lt;/h3&gt;
&lt;p&gt;Экосистема Open Source инструментов для инженерии данных значительно выросла в 2024 году: в этом году в обзор добавлено более 50 новых инструментов, при этом удалено около 10 неактивных и архивных проектов. Хотя не все эти инструменты были запущены в 2024 году, они представляют собой важные дополнения к экосистеме.&lt;/p&gt;
&lt;p&gt;Хотя этот рост демонстрирует постоянные инновации, в этом году также наблюдались некоторые тревожные события, связанные с изменением лицензирования.  Устоявшиеся проекты, включая Redis, CockroachDB, ElasticSearch и Kibana, перешли на более закрытые и проприетарные лицензии, хотя Elastic позже объявила о возвращении к Open Source лицензированию.&lt;/p&gt;
&lt;p&gt;Однако эти изменения были уравновешены значительным вкладом в Open Source сообщество со стороны крупных игроков отрасли. Вклад Snowflake в Polaris, открытие исходного кода Unity Catalog от Databricks, пожертвование OneHouse Apache XTable и выпуск Netflix Maestro продемонстрировали постоянную приверженность ведущих компаний отрасли разработке Open Source.&lt;/p&gt;
&lt;p&gt;Фонд Apache сохранил свои позиции в качестве ключевого управляющего технологиями данных, активно инкубируя несколько перспективных проектов в течение 2024 года. Среди заметных проектов в инкубации были Apache XTable (универсальный формат таблиц), Apache Amoro (управление Lakehouse), Apache HoraeDB (база данных временных рядов), Apache Gravitino (каталог данных), Apache Gluten (промежуточное ПО) и Apache Polaris (каталог данных).&lt;/p&gt;
&lt;p&gt;Фонд Linux также укрепил свои позиции в области данных, продолжая размещать такие исключительные проекты, как Delta Lake, Amundsen, Kedro, Milvus и Marquez.  Фонд расширил свой портфель в 2024 году, добавив новые значительные проекты, включая vLLM, пожертвованный Калифорнийским университетом в Беркли, и OpenSearch, который был передан из AWS в Фонд Linux.&lt;/p&gt;
&lt;h3&gt;Open Source vs Open Core vs Open Foundation&lt;/h3&gt;
&lt;p&gt;Не все перечисленные проекты являются полностью совместимыми, независимыми от поставщиков Open Source инструментами. Некоторые работают по модели Open Core, где не все компоненты полной системы доступны в Open Source версии. Как правило, критически важные функции, такие как безопасность, управление и мониторинг, зарезервированы для платных версий.&lt;/p&gt;
&lt;p&gt;Остаются вопросы об устойчивости бизнес-модели Open Core. Эта модель сталкивается со значительными проблемами, что заставляет некоторых полагать, что она может уступить место модели Open Foundation. В этом подходе программное обеспечение с открытым исходным кодом служит основой коммерческих предложений, гарантируя, что оно остается полностью жизнеспособным продуктом для производства со всеми необходимыми функциями.&lt;/p&gt;
&lt;h3&gt;Обзор категорий&lt;/h3&gt;
&lt;p&gt;Ландшафт инженерии данных разделен на 9 основных категорий:&lt;/p&gt;
&lt;p&gt;* &lt;b&gt;Системы хранения:&lt;/b&gt; базы данных и механизмы хранения, охватывающие OLTP, OLAP и специализированные решения для хранения.&lt;br /&gt;
* &lt;b&gt;Платформа озера данных:&lt;/b&gt; инструменты и фреймворки для построения и управления озерами данных и Lakehouse.&lt;br /&gt;
* &lt;b&gt;Обработка и интеграция данных:&lt;/b&gt; фреймворки для пакетной и потоковой обработки, а также инструменты обработки данных Python.&lt;br /&gt;
* &lt;b&gt;Оркестрация рабочих процессов и DataOps:&lt;/b&gt; инструменты для оркестрации конвейеров данных и управления операциями с данными.&lt;br /&gt;
* &lt;b&gt;Интеграция данных:&lt;/b&gt; решения для приема данных, CDC (Change Data Capture) и интеграции между системами.&lt;br /&gt;
* &lt;b&gt;Инфраструктура данных:&lt;/b&gt; основные компоненты инфраструктуры, включая оркестрацию контейнеров и мониторинг.&lt;br /&gt;
* &lt;b&gt;ML/AI платформа:&lt;/b&gt; инструменты, ориентированные на ML-платформы, MLOps и векторные базы данных.&lt;br /&gt;
* &lt;b&gt;Управление метаданными:&lt;/b&gt; решения для каталогов данных, управления и управления метаданными.&lt;br /&gt;
* &lt;b&gt;Аналитика и визуализация:&lt;/b&gt; BI-инструменты, фреймворки визуализации и аналитические механизмы.&lt;/p&gt;
&lt;p&gt;В следующем разделе кратко обсуждаются последние тенденции, инновации и текущее состояние основных продуктов в каждой категории.&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Системы хранения&lt;/b&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;В 2024 году ландшафт систем хранения данных претерпел значительные архитектурные изменения, особенно в области систем баз данных OLAP.&lt;/p&gt;
&lt;p&gt;DuckDB стал историей крупного успеха, особенно после выпуска версии 1.0, которая продемонстрировала готовность к промышленному использованию для предприятий. Новая категория встраиваемых OLAP расширилась за счет новых участников, таких как chDB (построенный на ClickHouse), GlareDB и SlateDB, что отражает растущий спрос на легкие аналитические возможности обработки.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-118.png" width="1456" height="781" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;&lt;b&gt;Расширения OLAP и HTAS&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Значительным событием стало распространение новых расширений OLAP, особенно в экосистеме PostgreSQL.&lt;/p&gt;
&lt;p&gt;Эти расширения позволяют легко расширять базы данных OLTP, преобразовывая эти системы в HTAP (гибридная транзакционная/аналитическая обработка) или новый механизм базы данных HTAS (гибридное транзакционное аналитическое хранилище), который интегрирует безголовое хранилище данных, такое как озера данных и lakehouse, с транзакционными системами баз данных.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-119.png" width="1456" height="583" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Выпуск MotherDuck pg_duckdb стал важным шагом вперед, позволив DuckDB служить встроенным механизмом OLAP в PostgreSQL.  За ним последовало расширение pg_mooncake, предоставляющее собственные возможности хранения столбцов в открытых табличных форматах, таких как Iceberg и Delta. Crunchy Data и ParadeDB внесли аналогичный вклад через pg_parquet и pg_analytics соответственно, обеспечивая прямую аналитику по файлам Parquet в озерах данных.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Архитектура без дисков (Zero-Disk)&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Архитектура без дисков стала, пожалуй, самой преобразующей тенденцией в системах хранения, фундаментально изменив то, как системы баз данных управляют уровнями хранения и вычислений.&lt;/p&gt;
&lt;p&gt;Этот архитектурный подход полностью устраняет необходимость в локально подключенных дисках, вместо этого используя удаленные решения для глубокого хранения, такие как объектное хранилище S3, в качестве основного уровня персистентности.&lt;/p&gt;
&lt;p&gt;Помимо систем хранения OLAP, таких как облачные хранилища данных и открытые табличные форматы, мы наблюдаем значительное появление этой модели в NoSQL, системах реального времени, потоковых и транзакционных системах.&lt;/p&gt;
&lt;p&gt;Основным компромиссом для систем на основе дисков и систем без дисков является соотношение цены и производительности, а также задержка ввода-вывода для чтения и записи данных на физическое хранилище. В то время как дисковые системы могут управлять быстрым вводом-выводом менее миллисекунды, системы без дисков достигают экономии за счет масштаба с дешевым масштабируемым объектным хранилищем, ценой задержек до одной секунды при чтении и записи данных в службу объектного хранилища.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-120.png" width="1456" height="1111" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Новые системы баз данных, включая базу данных временных рядов SlateDB и Apache HoraeDB, были построены с нуля с использованием этой архитектуры, в то время как устоявшиеся системы, такие как Apache Doris и StarRocks, приняли ее в 2024 году. Другие механизмы реального времени, такие как AutoMQ и InfluxDB 3.0, все чаще применяют парадигму без дисков.&lt;/p&gt;
&lt;p&gt;Для всестороннего анализа архитектуры без дисков и ее последствий см. подробное исследование в следующей статье:  Архитектура без дисков: будущее облачных систем хранения. &lt;a href="https://www.pracdata.io/p/zero-disk-architecture-the-future"&gt;https://www.pracdata.io/p/zero-disk-architecture-the-future&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Другие заметные разработки&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;После перехода Redis на проприетарную лицензию в 2024 году Valkey стала ведущей альтернативой с открытым исходным кодом, став самой звездной системой хранения на GitHub в 2024 году. Крупные облачные провайдеры быстро приняли ее: Google интегрировал ее в Memorystore, а Amazon поддерживает ее через сервисы ElastiCache и MemoryDB.&lt;/p&gt;
&lt;p&gt;Другие заметные разработки включают ParadeDB, альтернативу Elasticsearch, построенную на движке PostgreSQL, и новые гибридные системы потокового хранения, такие как Proton от TimePlus и Fluss, представленные Ververica. Эти системы направлены на интеграцию функций потоковой передачи и OLAP с основой хранения столбцов.&lt;/p&gt;
&lt;ol start="2"&gt;
&lt;li&gt;&lt;b&gt;Платформа озера данных&lt;/b&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Поскольку пионер баз данных Майкл Стоунбрейкер одобрил архитектуру lakehouse и открытые табличные форматы как «архетип OLAP СУБД на следующее десятилетие», lakehouse остается самой горячей темой в инженерии данных.&lt;/p&gt;
&lt;p&gt;Ландшафт открытых табличных форматов продолжал значительно развиваться в 2024 году. Четвертый основной открытый табличный формат, Apache Paimon, вышел из инкубации, предоставив возможности потоковой передачи lakehouse с интеграцией Apache Flink. Apache XTable появился как новый проект, ориентированный на двунаправленное преобразование форматов, в то время как Apache Amoro вошел в инкубацию со своим фреймворком управления lakehouse.&lt;/p&gt;
&lt;p&gt;В 2024 году Apache Iceberg зарекомендовал себя как ведущий проект среди фреймворков с открытым табличным форматом, отличающийся расширением своей экосистемы и метриками репозитория GitHub, включая большее количество звезд, форков, запросов на вытягивание и коммитов.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-121.png" width="1049" height="700" alt="" /&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-122.png" width="1456" height="371" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Все основные поставщики SaaS и облачных технологий улучшили свои платформы для поддержки доступа к открытым табличным форматам. Однако поддержка записи была менее распространена, причем Apache Iceberg был предпочтительным выбором для комплексной интеграции CRUD (Create, Read, Update, Delete).&lt;/p&gt;
&lt;p&gt;Управляемые таблицы BigLake от Google, позволяющие изменять таблицы Iceberg в облачном хранилище, управляемом клиентом, недавно анонсированные таблицы S3 от Amazon с нативной поддержкой Iceberg, а также другие основные инструменты SaaS, такие как Redpanda, запускающие Iceberg Topics, и Crunchy Data Warehouse, глубоко интегрирующиеся с Apache Iceberg, являются примерами растущего внедрения и глубокой интеграции с Iceberg в экосистеме.&lt;/p&gt;
&lt;p&gt;В будущем универсальные табличные форматы, такие как Apache XTable и Delta UniForm (Delta Lake Universal Format), могут столкнуться со значительными трудностями в навигации по потенциальному расхождению функций в различных форматах, а судьба открытых табличных форматов может отражать судьбу открытых файловых форматов, когда Parquet стал фактическим стандартом.&lt;/p&gt;
&lt;p&gt;По мере того, как экосистема lakehouse продолжает расти, ожидается, что внедрение совместимых открытых стандартов и фреймворков в рамках платформы Open Data Lakehouse приобретет большую популярность.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-123.png" width="1456" height="1014" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;&lt;b&gt;Появление библиотек нативных табличных форматов&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;В экосистеме lakehouse появляется новая тенденция, сосредоточенная на разработке нативных библиотек на Python и Rust.  Эти библиотеки направлены на обеспечение прямого доступа к открытым табличным форматам без необходимости использования тяжелых фреймворков, таких как Spark.&lt;/p&gt;
&lt;p&gt;Яркими примерами являются Delta-rs, нативная библиотека Rust для Delta Lake со связями Python; Hudi-rs, реализация Rust для Apache Hudi с API Python, и PyIceberg, развивающаяся библиотека Python, предназначенная для улучшения доступа к табличному формату Iceberg за пределами движка Spark по умолчанию.&lt;/p&gt;
&lt;ol start="3"&gt;
&lt;li&gt;&lt;b&gt;Обработка и интеграция данных&lt;/b&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;b&gt;Подъем одноузловой обработки&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Подъем одноузловой обработки представляет собой фундаментальный сдвиг в обработке данных, бросающий вызов традиционным подходам, ориентированным на распределенные системы.&lt;/p&gt;
&lt;p&gt;Недавний анализ показывает, что многие компании переоценили свои потребности в больших данных, что побудило пересмотреть свои требования к обработке данных. Даже в организациях с большими объемами данных примерно 90% запросов остаются в пределах управляемого размера рабочей нагрузки для запуска на одной машине, сканируя только последние данные.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-124.png" width="1200" height="812" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Современные механизмы одноузловой обработки, такие как DuckDB, Apache DataFusion и Polars, стали мощными альтернативами, способными обрабатывать рабочие нагрузки, которые ранее требовали распределенных систем, таких как Hive/Tez, Spark, Presto или Amazon Athena.&lt;/p&gt;
&lt;p&gt;Чтобы ознакомиться с полным анализом состояния одноузловой обработки, перейдите по ссылке ниже: &lt;a href="https://www.pracdata.io/p/the-rise-of-single-node-processing"&gt;https://www.pracdata.io/p/the-rise-of-single-node-processing&lt;/a&gt; или тут есть перевод &lt;a href="https://gavrilov.info/all/rascvet-odnouzlovoy-obrabotki-brosaya-vyzov-podhodu-raspredelyon/"&gt;https://gavrilov.info/all/rascvet-odnouzlovoy-obrabotki-brosaya-vyzov-podhodu-raspredelyon/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Потоковая обработка&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Экосистема потоковой обработки продолжала расширяться в 2024 году, причем Apache Flink еще больше укрепил свои позиции в качестве ведущего движка потоковой обработки, в то время как Apache Spark сохраняет свои сильные позиции.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-125.png" width="1394" height="742" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Отмечая свое 10-летие, Flink выпустил версию 2.0, представляющую первое крупное обновление с момента дебюта Flink 1.0 восемь лет назад. Экосистема Apache Flink значительно расширилась с появлением открытого табличного формата Apache Paimon и недавно открытого движка потоковой обработки Fluss. В 2024 году ведущие облачные провайдеры все чаще интегрировали Flink в свои управляемые сервисы, последним из которых стало бессерверное решение Google BigQuery Engine для Apache Flink.&lt;/p&gt;
&lt;p&gt;Появляющиеся движки потоковой обработки — Fluvio, Arroyo и FastStream — стремятся конкурировать с этими признанными претендентами. Fluvio и Arroyo выделяются как единственные движки на основе Rust, которые направлены на устранение накладных расходов, обычно связанных с традиционными движками потоковой обработки на основе JVM.&lt;/p&gt;
&lt;p&gt;В главных новостях потоковой передачи с открытым исходным кодом Redpanda приобрела Benthos.dev, переименовав ее в Redpanda Connect и переведя на более проприетарную лицензию. В ответ WarpStream создал форк проекта Benthos, переименовав его в Bento и обязавшись сохранить его 100% лицензированным по MIT.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Фреймворки обработки Python&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;В экосистеме обработки данных Python Polars в настоящее время является доминирующей высокопроизводительной библиотекой DataFrame для задач инженерии данных (за исключением PySpark). Polars достиг впечатляющих 89 миллионов загрузок в 2024 году, отметив важный этап выпуска версии 1.0.&lt;/p&gt;
&lt;p&gt;Однако теперь Polars сталкивается с конкуренцией со стороны API DataFrame от DuckDB, который привлек внимание сообщества своей удивительно простой интеграцией с внешними системами хранения и интеграцией без копирования (прямое совместное использование памяти между различными системами) с Apache Arrow, аналогично Polars. Обе библиотеки входят в 1% самых загружаемых библиотек Python в прошлом году.&lt;/p&gt;
&lt;p&gt;Apache Arrow укрепил свои позиции в качестве фактического стандарта для представления данных в памяти в экосистеме обработки данных Python. Фреймворк установил глубокую интеграцию с различными фреймворками обработки Python, включая Apache DataFusion, Ibis, Daft, cuDF и Pandas 3.0.&lt;/p&gt;
&lt;p&gt;Ibis и Daft — это другие инновационные проекты DataFrame с высоким потенциалом. Ibis имеет удобный внутренний интерфейс для различных баз данных на основе SQL, а Daft предоставляет возможности распределенных вычислений, созданные с нуля для поддержки распределенной обработки DataFrame.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Оркестрация рабочих процессов и DataOps&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;В 2025 году категория оркестрации рабочих процессов с открытым исходным кодом продолжает оставаться одним из самых динамичных сегментов экосистемы инженерии данных, включающей более 10 активных проектов, от устоявшихся платформ, таких как Apache Airflow, до недавно открытых движков, таких как Maestro от Netflix.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-126.png" width="1456" height="683" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;После десятилетия Apache Airflow продолжает оставаться наиболее развернутым и принятым движком оркестрации рабочих процессов с ошеломляющими 320 миллионами загрузок только в 2024 году, сталкиваясь с конкуренцией со стороны растущих конкурентов, таких как Dagster, Prefect и Kestra.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-127.png" width="1260" height="874" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Интересно, что Kestra получил наибольшее количество звезд на GitHub в 2024 году, причем всплеск напрямую связан с объявлением о его финансировании в размере 8 миллионов долларов в сентябре, которое было опубликовано на TechCrunch. С точки зрения активности кода, Dagster продемонстрировал замечательную активность разработки с впечатляющими 27 000 коммитов и почти 6 000 закрытыми запросами на вытягивание в 2024 году.&lt;/p&gt;
&lt;p&gt;Для всестороннего анализа состояния систем оркестрации рабочих процессов прочтите следующую статью: &lt;a href="https://www.pracdata.io/p/state-of-workflow-orchestration-ecosystem-2025"&gt;https://www.pracdata.io/p/state-of-workflow-orchestration-ecosystem-2025&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Качество данных&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Great Expectations продолжает оставаться ведущим фреймворком Python для обеспечения качества данных и валидации, также представленным в &lt;a href="https://www.databricks.com/resources/ebook/state-of-data-ai&amp;ved=2ahUKEwjjyu6m-q6LAxX4JUQIHT0nFkMQFnoECBIQAQ&amp;usg=AOvVaw1kV7-XyUDOl5oHepsMrDI6"&gt;10 лучших продуктах Databricks для данных и ИИ 2024 года&lt;/a&gt;, за которым следуют Soda и Pandera в практике инженерии данных. Однако есть и разочаровывающие новости: проект Data-Diff был заархивирован своим основным разработчиком, Datafold, в 2024 году.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Версионирование данных&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Версионирование данных остается важной темой в 2024 году, поскольку продолжаются усилия по внедрению возможностей современных систем управления версиями, таких как Git, в озера данных и lakehouse.&lt;/p&gt;
&lt;p&gt;Такие проекты, как LakeFS и Nessie, улучшают современные озера данных и открытые табличные форматы, такие как Iceberg и Delta Lake, за счет расширения их транзакционных уровней метаданных.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Преобразование данных&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Сфера использования dbt для преобразования данных расширяется за пределы ее первоначальной направленности на моделирование данных в системах хранилищ данных. В настоящее время она проникает в среды вне хранилищ данных, такие как озера данных, благодаря новым интеграциям и плагинам, которые используют временные вычислительные движки, такие как Trino.&lt;/p&gt;
&lt;p&gt;В настоящее время dbt сталкивается с конкуренцией в основном со стороны SQLMesh.  Примечательным противостоянием в 2024 году стали дебаты SQLMesh против dbt, освещенные генеральным директором Tobiko, который заявил в социальных сетях, что SQLMesh настолько хорош, что его запретили на конференции Coalesce от dbt!&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Интеграция данных&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;В области интеграции данных Airbyte сохранил свои лидирующие позиции, достигнув впечатляющей вехи, закрыв 13 000 запросов на вытягивание в рамках подготовки к версии 1.x. Фреймворк dlt продемонстрировал значительное созревание с выпуском версии 1.0, в то время как Apache SeaTunnel набрал обороты в качестве убедительной альтернативы.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-128.png" width="1456" height="768" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Ландшафт фреймворков Change Data Capture (CDC) развивался с появлением новых инструментов, включая Artie Transfer и PeerDB (приобретен ClickHouse), в то время как коннекторы Flink CDC получают распространение среди платформ, использующих Flink в качестве основного движка потоковой передачи.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Центры событий (службы потоковой публикации/подписки)&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Одно из самых заметных нововведений в области интеграции данных в 2024 году произошло из развивающегося ландшафта потоковой передачи данных.  Значительным архитектурным сдвигом в этой категории является разделение хранения и вычислений в сочетании с внедрением объектного хранилища в архитектуре без дисков. WarpStream является пионером в реализации этой архитектуры в области потоковой передачи в реальном времени.&lt;/p&gt;
&lt;p&gt;Эта модель также обеспечивает гибкую стратегию развертывания Bring Your Own Cloud (BYOC), поскольку как вычисления, так и хранилище могут размещаться в предпочитаемой клиентом инфраструктуре, в то время как поставщик услуг поддерживает плоскость управления.&lt;/p&gt;
&lt;p&gt;Успех WarpStream побудил крупных конкурентов принять аналогичные архитектуры. Redpanda запустила Cloud Topics, улучшив свои предложения, в то время как AutoMQ реализовала гибридный подход с быстрым уровнем кеширования для повышения производительности ввода-вывода.&lt;/p&gt;
&lt;p&gt;Кроме того, StreamNative представила движок Ursa для Apache Pulsar, а Confluent представила свои собственные облачные кластеры Freight Clusters в 2024 году. В конечном итоге Confluent решила приобрести WarpStream, еще больше расширив свое предложение с помощью модели BYOC. Между тем, замечательный Apache Kafka стоит на распутье, которое может определить его дальнейшее направление в экосистеме.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Инфраструктура данных&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Ландшафт инфраструктуры данных в 2024 году оставался в основном стабильным: Kubernetes отпраздновал свое 10-летие, сохранив при этом свои позиции в качестве ведущего движка планирования ресурсов и виртуализации в облачных средах.&lt;/p&gt;
&lt;p&gt;В области наблюдаемости InfluxDB, Prometheus и Grafana продолжали доминировать, причем Grafana Labs обеспечила себе заметный раунд финансирования в размере 270 миллионов долларов, который укрепил долгосрочную жизнеспособность их основных продуктов, таких как Grafana, в качестве универсальных решений для наблюдаемости.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;ML/AI платформа&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Векторные базы данных сохранили сильный импульс с 2023 года, причем Milvus стала лидером наряду с Qdrant, Chroma и Weaviate.  В настоящее время эта категория включает десять активных проектов векторных баз данных, что отражает растущую важность возможностей векторного поиска в современных архитектурах данных с поддержкой ИИ.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-129.png" width="1456" height="787" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Внедрение LLMOps (также называемого GenOps) в качестве отдельной категории в представленном в этом году ландшафте было отмечено быстрым ростом новых проектов, таких как Dify и vLLM, специально созданных для управления LLM-моделями.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Управление метаданными&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Платформы управления метаданными приобрели значительный импульс в последние годы, причем DataHub лидирует в области открытого исходного кода благодаря своей активной разработке и участию сообщества.&lt;/p&gt;
&lt;p&gt;Однако наиболее заметные события в 2024 году произошли в управлении каталогами.  В то время как в 2023 году доминировала конкуренция в открытых табличных форматах, 2024 год ознаменовал начало «войны каталогов».&lt;/p&gt;
&lt;p&gt;В отличие от предыдущих лет, в 2024 году на рынок вышла волна новых решений для открытых каталогов, включая Polaris (открытый исходный код от Snowflake), Unity Catalog (открытый исходный код от Databricks), LakeKeeper и Apache Gravitino.&lt;/p&gt;
&lt;p&gt;Это распространение отражает осознание того, что появляющимся платформам lakehouse, которые в значительной степени полагаются на открытые табличные форматы, не хватает передовых встроенных возможностей управления каталогами для бесшовной взаимодействия между различными движками.&lt;/p&gt;
&lt;p&gt;Все эти проекты имеют потенциал для установления нового стандарта для независимых от поставщиков открытых каталожных сервисов на платформах lakehouse. Подобно тому, как Hive Metastore стал фактическим стандартом для платформ на основе Hadoop, эти новые каталоги могут окончательно заменить давнее доминирование Hive Metastore в управлении каталогами на открытых платформах данных.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Аналитика и визуализация&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;В области бизнес-аналитики с открытым исходным кодом Apache Superset и Metabase остаются ведущими BI-решениями. В то время как Superset лидирует по популярности на GitHub, Metabase демонстрирует наивысшую активность разработки. Lightdash стал многообещающим новичком, получив финансирование в размере 11 миллионов долларов и продемонстрировав рыночный спрос на легкие BI-решения.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-130.png" width="1456" height="704" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;&lt;b&gt;BI-as-Code решения&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;BI-as-Code появился как отдельная категория благодаря продолжающемуся успеху Streamlit, который сохранил свои позиции в качестве самого популярного решения BI-as-Code.&lt;/p&gt;
&lt;p&gt;Эти инструменты позволяют разработчикам создавать интерактивные приложения и легкие BI-панели управления с помощью кода, SQL и шаблонов, таких как Markdown или YAML, имея возможность комбинировать лучшие практики разработки программного обеспечения, такие как контроль версий, тестирование и CI/CD, в рабочий процесс разработки панелей управления.&lt;/p&gt;
&lt;p&gt;В дополнение к Streamlit и известному Evidence новые участники, такие как Quary и Vizro, набрали обороты, причем Quary, в частности, реализовал подход на основе Rust, который отличается от нормы, ориентированной на Python, в этой категории.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Компонуемый BI-стек&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Эволюция декомпозиции систем не ограничивается системами хранения; она также повлияла на стеки бизнес-аналитики (BI).  Появляется новая тенденция, которая сочетает в себе легкие, бездонные BI-инструменты (которые не имеют внутреннего сервера) с безголовыми встраиваемыми решениями OLAP, такими как Apache DataFusion, Apache Arrow и DuckDB.&lt;/p&gt;
&lt;p&gt;Эта интеграция устраняет несколько пробелов в BI-стеке с открытым исходным кодом, таких как собственная способность запрашивать внешние озера данных и lakehouse, сохраняя при этом преимущества легких, дезагрегированных архитектур.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-131.png" width="1456" height="1309" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;BI-продукты, такие как Omni, GoodData, Evidence и Rilldata, уже включили эти движки в свои BI-инструменты и инструменты исследования данных.  Как Apache Superset (с использованием библиотеки duckdb-engine), так и Metabase теперь поддерживают встроенные подключения DuckDB.&lt;/p&gt;
&lt;p&gt;Для всестороннего анализа развивающейся компонуемой BI-архитектуры см. подробное исследование в следующей статье: &lt;a href="https://www.pracdata.io/p/the-evolution-of-business-intelligence-stack"&gt;https://www.pracdata.io/p/the-evolution-of-business-intelligence-stack&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Перевод тут &lt;a href="https://gavrilov.info/all/evolyuciya-biznes-analitiki-ot-monolitnoy-k-komponuemoy-arhitekt/"&gt;https://gavrilov.info/all/evolyuciya-biznes-analitiki-ot-monolitnoy-k-komponuemoy-arhitekt/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;MPP Query Engines&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;В пост-Hadoop эпоху было мало инноваций и внедрения новых систем MPP (массовой параллельной обработки) с открытым исходным кодом, в то время как существующие движки продолжают развиваться.&lt;/p&gt;
&lt;p&gt;В то время как доля Hive сокращается, Presto и Trino по-прежнему остаются лучшими движками запросов MPP с открытым исходным кодом, используемыми в производстве, несмотря на жесткую конкуренцию со стороны Spark как унифицированного движка и управляемых облачных продуктов MPP, таких как Databricks, Snowflake и AWS Redshift Spectrum плюс Athena.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Перспективы на будущее и заключение&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Экосистема данных с открытым исходным кодом вступает в фазу зрелости в таких ключевых областях, как lakehouse, которая характеризуется консолидацией вокруг проверенных технологий и повышенным вниманием к операционной эффективности.&lt;/p&gt;
&lt;p&gt;Ландшафт продолжает развиваться в сторону облачных, компонуемых архитектур, стандартизируясь вокруг доминирующих технологий. Ключевые области, за которыми следует следить, включают:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Дальнейшая консолидация в области открытых табличных форматов&lt;/li&gt;
&lt;li&gt;Продолжающаяся эволюция архитектур без дисков в системах реального времени и транзакционных системах&lt;/li&gt;
&lt;li&gt;Стремление к предоставлению унифицированного опыта lakehouse&lt;/li&gt;
&lt;li&gt;Подъем LLMOps и AI Engineering&lt;/li&gt;
&lt;li&gt;Расширение экосистемы lakehouse в таких областях, как интеграция открытых каталогов и разработка нативных библиотек&lt;/li&gt;
&lt;li&gt;Растущая популярность одноузловой обработки данных и встроенной аналитики&lt;/li&gt;
&lt;/ul&gt;
</description>
</item>

<item>
<title>Alchemesh консоль: Основные концепции</title>
<guid isPermaLink="false">170</guid>
<link>https://gavrilov.info/all/alchemesh-konsol-osnovnye-koncepcii/</link>
<pubDate>Sat, 05 Oct 2024 22:10:17 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/alchemesh-konsol-osnovnye-koncepcii/</comments>
<description>
&lt;p&gt;Оригинал: &lt;a href="https://medium.com/alchemesh/alchemesh-console-the-core-concepts-160511dee3b0"&gt;https://medium.com/alchemesh/alchemesh-console-the-core-concepts-160511dee3b0&lt;/a&gt;&lt;br /&gt;
Или тут: &lt;a href="https://a.gavrilov.info/data/posts/Alchemesh%20console%20The%20core%20concepts%20|%20by%20Alexandre%20Guitton%20|%20Alchemesh%20|%20Medium.pdf"&gt;alchemesh console the core concepts&lt;/a&gt;&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-90.png" width="232" height="539" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Alchemesh core concepts&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Объявление о запуске нашего фреймворка для поддержки Data Mesh было сделано, и теперь мы можем начать наше новое приключение вместе!&lt;br /&gt;
Идея заключается в том, чтобы делиться с вами нашими размышлениями и техническими решениями по мере их разработки.&lt;/p&gt;
&lt;p&gt;Цель состоит в том, чтобы через эти статьи поделиться нашей интерпретацией Data Mesh, представить наш подход к разработке, получить обратную связь по нашим выборам и, самое главное, попытаться вместе подумать о вызовах, связанных с реализацией Data Mesh.&lt;br /&gt;
Консоль Alchemesh: Стандартизация интерфейсов для облегчения ассимиляции и понимания&lt;br /&gt;
Как мы уже говорили, одна из целей фреймворка, и особенно консоли, — это предоставить поддержку и структуру, чтобы помочь различным стейкхолдерам понять, взаимодействовать и принять Data Mesh.&lt;br /&gt;
Наше решение должно быть средством для передачи концепций Data Mesh! Это для нас серьезный вызов, особенно с таким широким подходом, как у Data Mesh.&lt;/p&gt;
&lt;p&gt;Множество концепций вступают в игру: data product, data domain, data contract, полисемия, адресация, достоверность, владение, автономия и т.д.&lt;br /&gt;
Возникает множество вопросов: какие взаимодействия между различными концепциями? Какой компонент должен нести какую информацию? И так далее.&lt;br /&gt;
В такой ситуации сложно гарантировать, что у всех есть общее минимальное понимание, и минимизировать риск чрезмерной интерпретации или несогласованности среди стейкхолдеров. Кроме того, важно определить четкие и хорошо определенные пространства, чтобы команды могли понять концепции и делать сильные предложения через запросы функций.&lt;br /&gt;
Для нас было естественным выбором решить эти вопросы через консоль, стандартизируя определение основных концепций Data Mesh и их взаимодействий, все это переведенное в интерфейс.&lt;br /&gt;
Alchemesh: Моделирование основных концепций&lt;br /&gt;
⚠️ Версия, которую мы представляем здесь, соответствует тому, что мы определили на этапе проектирования MVP; она, естественно, подлежит изменению по мере разработки и реализации новых функций. ⚠️&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-91.png" width="1400" height="674" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Консоль Alchemesh: Моделирование основных концепций&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Пользователи&lt;br /&gt;
Пользователи являются центральными игроками, которые будут взаимодействовать в сетке. В нашем фреймворке мы различаем несколько персонажей:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Разработчик data product: Учитывая широкий спектр навыков — от универсальных разработчиков с общими навыками программирования до специализированных инженеров данных.&lt;/li&gt;
&lt;li&gt;Потребители data product: Охватывает множество ролей, у которых есть одно общее, они нуждаются в доступе и использовании данных для выполнения своей работы (например, дата-сайентисты, дата-аналитики, разработчики приложений).&lt;/li&gt;
&lt;li&gt;Владелец data product: Отвечает за доставку и продвижение успешных data product для своих конкретных доменов.&lt;/li&gt;
&lt;li&gt;Разработчик data platform: Отвечает за доставку сервисов платформы как продукта с лучшим пользовательским опытом.&lt;/li&gt;
&lt;li&gt;Владелец data platform: Создает и управляет data platform, а также использует ее. Разработчики data platform, которые работают над сервисами плоскости опыта data product.&lt;/li&gt;
&lt;/ul&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-92.png" width="1400" height="993" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Alchemesh: Пользователи&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Data domains&lt;/p&gt;
&lt;p&gt;Владение данными домена является основой масштабирования в сложной системе, такой как современные предприятия. Стратегическое проектирование в DDD (Domain Driven Design) принимает моделирование на основе нескольких моделей, каждая из которых контекстуализирована для конкретного домена, называемого&lt;br /&gt;
bounded context.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Bounded context — это “ограниченная применимость конкретной модели [которая] дает членам команды четкое и общее понимание того, что должно быть согласовано, а что может развиваться независимо”.&lt;br /&gt;
Мы поддерживаем 3 типа data domains:&lt;br /&gt;
Source aligned domain: Аналитические данные, отражающие бизнес-факты, генерируемые операционными системами, ответственными за предоставление правды своих бизнес-доменов как данных source-aligned domain.&lt;/li&gt;
&lt;/ul&gt;
&lt;ul&gt;
&lt;li&gt;Aggragated domain: Аналитические данные, являющиеся агрегатом нескольких upstream domains.&lt;/li&gt;
&lt;/ul&gt;
&lt;ul&gt;
&lt;li&gt;Consumer aligned domain: Аналитические данные, трансформированные для удовлетворения потребностей одного или нескольких конкретных use cases. Это также называется fit-for-purpose domain data.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Помимо уточнения роли домена в отношении data product, которые он производит, это также позволит федеративному data governance определить вычислительные политики для надлежащего управления сеткой (например, установление правила, что data product из source-aligned domain, не опирающиеся на какую-либо систему источника, теряют ценность) или помочь в определении приоритетов реорганизации доменов.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-93.png" width="1218" height="869" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Вид data domain&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Технические команды&lt;br /&gt;
В зависимости от размера определенных data domains, организация может решить определить несколько кросс-функциональных команд для управления наборами data product. Чтобы удовлетворить эту потребность, мы решили ввести концепцию технической команды, объединяющей людей, вносящих вклад в один и тот же scope в рамках домена.&lt;br /&gt;
Мы различаем несколько видов команд:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Data product team: Stream aligned team, отвечает за полноценную доставку сервисов (инжекция, потребление, обнаружение и т.д.), требуемых data product.&lt;/li&gt;
&lt;li&gt;Platform team: Ее цель — обеспечить возможность stream-aligned доставлять свою работу с существенной автономностью.&lt;/li&gt;
&lt;li&gt;Governance group: Enabling team, ее ключевая роль — облегчить принятие решений вокруг глобальных политик. Эти политики затем реализуются вычислительно и принимаются командами data product.&lt;/li&gt;
&lt;/ul&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-94.png" width="1091" height="781" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Технические команды&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Система источника&lt;br /&gt;
В случае source-aligned data domains, операционный и аналитический миры объединены в одном домене, и это отражено в кросс-функциональных командах. Важно, чтобы консоль материализовала эту связь.&lt;br /&gt;
Намерение явно не в том, чтобы управлять операционными задачами в рамках платформы data mesh, но важно материализовать эту связь, чтобы преодолеть разрыв между двумя мирами, не ограничиваясь организационно.&lt;/p&gt;
&lt;p&gt;Data product&lt;br /&gt;
С владельцем домена (поддерживаемым технической командой), данные, ориентированные на домен, делятся как продукт напрямую с пользователями данных.&lt;br /&gt;
Data as a product вводит новую единицу логической архитектуры, называемую data quantum, контролирующую и инкапсулирующую все структурные компоненты, необходимые для обмена данными как продуктом.&lt;br /&gt;
Приняв продуктовый подход, мы будем сообщать о состоянии нашего предложения:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Lifecycle state: На каком этапе жизненного цикла находится data product — находится ли он в разработке, в обнаружении, стабилен или находится в процессе вывода из эксплуатации.&lt;/li&gt;
&lt;li&gt;Maturity level: Продукт, считающийся стабильным, но с небольшим историческим использованием, не имеет такого же уровня зрелости, как стабильный data product, который использовался многими потребителями в течение нескольких лет.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Входные порты&lt;br /&gt;
В контексте source-aligned data product, данные будут нуждаться в потреблении из операционной системы, чтобы сделать их доступными как входные данные для внутреннего обработчика data product. Эта интеграция будет выполнена через входной порт (платформенный компонент, предназначенный для этой интеграции, предоставленный платформой или реализованный командами домена).&lt;br /&gt;
Чтобы дать конкретный пример, предположим, что операционные данные доступны в топике Kafka и должны быть доступны на проекте GCP. Входной порт может включать предоставление бакета GCS и NiFi dataflow, который потребляет данные из топика Kafka.&lt;br /&gt;
Семантическая модель&lt;br /&gt;
Описываем семантические модели, которые data product будет предлагать.&lt;br /&gt;
Определение модели, читаемое машинами и людьми, которое захватывает модель домена данных: как data product моделирует домен, какие типы сущностей включает данные, свойства сущностей и т.д.&lt;br /&gt;
Выходные порты&lt;br /&gt;
Эти модели будут представлены как активы через выходной порт. Проще говоря, выходной порт — это пара, состоящая из системы хранения (объектное хранилище, колоночная таблица, топик потоковой передачи и т.д.) и прокси, который позволяет получить доступ через различные протоколы и языки (SQL, REST API, GraphQL и т.д.).&lt;br /&gt;
Одно из наших позиций по этому вопросу заключается в том, что выходной порт не обязательно будет представлять все модели, управляемые data product.&lt;br /&gt;
Код&lt;br /&gt;
Это основная работа разработчика data product, который часто слишком отдален от данных, которые он производит в устаревших инструментах и архитектурах данных. Data mesh ставит код, который создает ценность data product, в центр, и это естественно то, что мы делаем. Эта логика позволяет начать с входных данных для генерации выходных активов.&lt;br /&gt;
В data product ответственность за правильное определение data product, потребление и представление данных через стандартные порты, а также поддержание связанных метаданных лежит на разработчиках data product.&lt;br /&gt;
В свою очередь, все, что происходит внутри (код), полностью оставлено на усмотрение команды: Dagster Blog job, Airflow DAG, Kestra DAG, простой Python job в Lambda… Выбор и ответственность лежат на владельце (это то, что мы называем автономией).&lt;/p&gt;
&lt;p&gt;Инфраструктура&lt;br /&gt;
Data product может зависеть от инфраструктуры, которая должна быть предоставлена для выполнения его обработки, такой как объектное хранилище, промежуточный набор данных и т.д., которые не связаны с тем, как выполняется код, данные потребляются или данные представляются. Этот интерфейс позволяет указать платформе, что data product нуждается в этом.&lt;br /&gt;
Метаданные&lt;/p&gt;
&lt;p&gt;Актив&lt;br /&gt;
Мы считаем активом инстанцирование модели data product через выходной порт.&lt;br /&gt;
После того как data product развернут и функционирует, код должен поддерживать определенную информацию о состоянии, чтобы информировать своих потребителей о его состоянии:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Общее состояние: операционное, в инциденте, выключено&lt;/li&gt;
&lt;li&gt;Состояние активов: их техническое качество данных (точность, полнота, своевременность, достоверность) и их свежесть.&lt;/li&gt;
&lt;/ul&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-95.png" width="1337" height="950" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Data product&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Data contract&lt;br /&gt;
У нас есть data product в нашем data domain, принадлежащий технической команде, с данными, потребляемыми из операционной системы через входной порт и представляющими ценность data product, сгенерированную кодом, через выходные порты. Отлично!&lt;br /&gt;
Но прежде чем потреблять этот data product, я, как потребитель, хочу знать, на что я соглашаюсь, и как производитель, кто соглашается потреблять от меня! Вот где вступают в игру data contracts.&lt;br /&gt;
Выходной порт&lt;br /&gt;
Data contract применяется к выходному порту data product, а не ко всему data product. Есть несколько причин для этого:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Ожидания различаются между потоком потоковой передачи и объектом, хранящимся в data lake (в терминах времени отклика, частоты обновления, точности и т.д.).&lt;/li&gt;
&lt;li&gt;Не все выходные порты несут одни и те же модели, поэтому обязательство к потреблению не одно и то же.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Тип доступа&lt;br /&gt;
В зависимости от природы data product, доступ к нему не будет разрешен одинаково. Мы поддерживаем три типа:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Ограниченный доступ: Это означает, что владелец data product должен рассмотреть и одобрить любые запросы на доступ.&lt;/li&gt;
&lt;li&gt;Внутренний доступ: Это означает, что все запросы из одного и того же домена автоматически одобряются; в противном случае они требуют одобрения владельца.&lt;/li&gt;
&lt;li&gt;Публичный доступ: Это означает, что все запросы автоматически одобряются без рассмотрения или одобрения владельца.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Версионирование и жизненный цикл состояния&lt;br /&gt;
Контракты данных версионируются и имеют состояние жизненного цикла, чтобы информировать о их статусе и предоставлять предупреждения в случае устаревания или изменений.&lt;br /&gt;
Соглашения об уровне обслуживания (SLA)&lt;br /&gt;
Контракт данных — это обязательство по предоставлению услуги, а точнее, о том, как мы будем ее предоставлять. В настоящее время мы определяем следующие обязательства:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Время безотказной работы&lt;/li&gt;
&lt;li&gt;Частота обновлений&lt;/li&gt;
&lt;li&gt;Время отклика&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Условия&lt;br /&gt;
Это также обязательство по тому, как будет потребляться продукт данных с точки зрения:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Использования&lt;/li&gt;
&lt;li&gt;Выставления счетов&lt;/li&gt;
&lt;li&gt;Период уведомления для адаптации потребления&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Тест качества данных&lt;/p&gt;
&lt;p&gt;Как вы могли заметить в активах внутри продукта данных, мы различаем тесты качества данных, которые называем техническими, и те, которые называем бизнес-тестами. Первые имеют чисто техническое значение, независимо от ожиданий потребителей, и определяются техническими командами.&lt;/p&gt;
&lt;p&gt;Вторые, определенные в рамках контракта данных, направлены на то, чтобы иметь бизнес-значение, которое подтверждает ценность, которую мы вводим и обязуемся предоставлять потребителям (дублирование строк может иметь технический эффект на стоимость хранения и время вычислений, не обязательно влияя на ценность, которую мы доставляем).&lt;/p&gt;
&lt;p&gt;Состояние&lt;br /&gt;
Контракт данных отвечает за проверку своего собственного состояния, чтобы система могла сравнить его с обязательствами. Он поддерживает состояние:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;SLA&lt;/li&gt;
&lt;li&gt;Использование&lt;/li&gt;
&lt;li&gt;Выставление счетов&lt;/li&gt;
&lt;li&gt;Результаты тестов качества данных&lt;/li&gt;
&lt;/ul&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-96.png" width="1338" height="942" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Контракт данных&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Запрос на доступ к контракту данных&lt;br /&gt;
Контракт данных готов; теперь пришло время запросить доступ, чтобы подписаться на него! Это роль запроса на доступ, который будет включать:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Кто хочет потреблять?: Продукт данных, Техническая команда, Одиночный пользователь или Домен данных&lt;/li&gt;
&lt;li&gt;В чем цель?&lt;/li&gt;
&lt;/ul&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-97.png" width="1334" height="933" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Запрос на доступ&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Компоненты платформы&lt;br /&gt;
Я не буду вдаваться в подробности этой части, не потому что она неинтересна, а потому что, по моему мнению, она заслуживает отдельной статьи.&lt;br /&gt;
Важно то, что мы хотим использовать эти ресурсы для предоставления интерфейсов между разработчиками продуктов данных и командами платформы (Data Product Experience Plane и Infrastructure Utils Plane) для поддержки предоставления платформы самообслуживания, обеспечивая автономию разработчиков, предлагая децентрализацию через компоненты платформы, реализованные и предоставленные платформой (наши знаменитые LEGO).&lt;/p&gt;
&lt;p&gt;Заключение&lt;br /&gt;
Вот и все — мы рассмотрели основные концепции, которые консоль будет поддерживать, чтобы позволить командам реализовать свою data mesh. Давайте не забудем одно: мы все еще на самом начальном этапе разработки, стремясь к MVP с базовыми концепциями, чтобы начать вводить data mesh! Многие концепции, необходимые для масштабирования data mesh и в долгосрочной перспективе, такие как полисемии, петли обратной связи, вычислительные политики и т.д., все еще отсутствуют. Мы доберемся до этого!&lt;br /&gt;
Концепции на месте; следующим шагом является северная звезда архитектуры Alchemesh!&lt;/p&gt;
</description>
</item>

<item>
<title>Alchemesh: Фреймворк Data Mesh — Происхождение</title>
<guid isPermaLink="false">169</guid>
<link>https://gavrilov.info/all/alchemesh-freymvork-data-mesh-proishozhdenie/</link>
<pubDate>Sat, 05 Oct 2024 21:29:56 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/alchemesh-freymvork-data-mesh-proishozhdenie/</comments>
<description>
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-89.png" width="500" height="500" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Alchemesh&lt;/div&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-88.png" width="1400" height="1002" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Data product view&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Оригинал: &lt;a href="https://medium.com/alchemesh/alchemesh-data-mesh-framework-the-genesis-aaa9aba2f7bd"&gt;https://medium.com/alchemesh/alchemesh-data-mesh-framework-the-genesis-aaa9aba2f7bd&lt;/a&gt;&lt;br /&gt;
Или тут: &lt;a href="https://a.gavrilov.info/data/posts/Alchemesh%20Data%20mesh%20framework%20—%20The%20genesis%20|%20by%20Alexandre%20Guitton%20|%20Alchemesh%20|%20Medium.pdf"&gt;alchemesh data mesh framework the genesis&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Очень ждем эту любопытную балалайку 🔥 и надеемся, что ребята ее выложат в Open Source в скором времени и не сделают её сильно или неудобно платной.&lt;/p&gt;
&lt;p&gt;По мере того как данные становятся всё более важными в процессах принятия решений, многие компании пересматривают свою организацию, чтобы принять данные. В серии постов я обсуждал, как я перешёл от мышления о современном стеке данных к принципам Data Mesh, что в конечном итоге привело меня сюда, к началу нового пути: созданию фреймворка Data Mesh.&lt;/p&gt;
&lt;p&gt;Data Mesh — это децентрализованный социально-технический подход к совместному использованию, доступу и управлению аналитическими данными в сложных и крупномасштабных средах — внутри или между организациями, способствующий децентрализованному управлению данными при обеспечении надёжной системы управления и продуктового подхода.&lt;/p&gt;
&lt;p&gt;Однако реализация Data Mesh представляет собой множество вызовов и требует поддержки платформы.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Data Mesh: За пределами технологии&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Вопреки распространённому мнению, Data Mesh — это не просто о перестройке команд. Это не просто о формировании кросс-функциональных команд, работающих на централизованной и монолитной платформе. Data Mesh представляет собой глубокое преобразование взаимодействий между людьми, технической архитектурой и решениями в организации, основанное на 4 принципах:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Владение доменом&lt;/b&gt;: Децентрализация владения аналитическими данными к бизнес-доменам, ближайшим к источнику данных или основным потребителям, и независимое управление жизненным циклом данных на основе этих доменов. Этот подход согласовывает бизнес, технологии и данные, обеспечивая масштабируемость, гибкость, точность и устойчивость за счёт сокращения узких мест и обеспечения локализованного управления изменениями.&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;&lt;b&gt;Данные как продукт&lt;/b&gt;: Доменно-ориентированные данные делятся как продукт напрямую с пользователями данных, придерживаясь таких характеристик, как обнаруживаемость, адресуемость, понятность, достоверность, нативный доступ, взаимодействие, композиционность, внутренняя ценность и безопасность. Каждый автономный продукт данных предоставляет явные, простые в использовании контракты на обмен данными и управляется независимо, вводя концепцию “кванта данных”, которая инкапсулирует все необходимые компоненты для обмена данными, направленную на предотвращение информационных завалов, развитие культуры, ориентированной на данные, и повышение устойчивости к изменениям.&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="3"&gt;
&lt;li&gt;&lt;b&gt;Платформа самообслуживания данных&lt;/b&gt;: Обеспечение возможности кросс-функциональным командам делиться данными за счёт управления полным жизненным циклом продуктов данных и создания надёжной сети взаимосвязанных продуктов, упрощая обнаружение, доступ и использование данных. Она направлена на снижение стоимости децентрализованного владения данными, абстрагирование сложности управления данными, привлечение более широкого круга разработчиков и автоматизацию управления для обеспечения безопасности и соответствия.&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="4"&gt;
&lt;li&gt;&lt;b&gt;Федеративное вычислительное управление&lt;/b&gt;: Федеративная модель управления с представителями доменов, членами платформы данных и экспертами для балансировки автономии доменов и глобальной совместимости, полагаясь на автоматическое обеспечение политики. Она направлена на извлечение ценности из совместимых продуктов данных, смягчение рисков децентрализации, интеграцию требований управления и сокращение ручного синхронизационного накладных расходов.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;b&gt;Поддержка перехода к Data Mesh&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Реализация Data Mesh — это сложный и развивающийся процесс. Компании должны не только инициировать этот переход, но и обеспечить его устойчивость. По мере появления новых технологий и созревания организаций в реализации Data Mesh, концепции и практики должны развиваться.&lt;/p&gt;
&lt;p&gt;Data Mesh далеко не статичное решение. Оно должно постоянно адаптироваться к новым размышлениям и технологическим достижениям. Компании, принимающие этот подход, должны быть готовы постоянно пересматривать и корректировать свои практики и инструменты.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Множество вызовов&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Когда вы начинаете углубляться в реализацию Data Mesh, вы начинаете понимать, что перед вами стоит множество вызовов, таких как:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Контракты данных&lt;/b&gt;: Они становятся важными для формализации зависимостей между командами и их продуктами. Контракты данных проясняют ожидания и обязанности, обеспечивая эффективную коммуникацию и сотрудничество.&lt;/li&gt;
&lt;/ul&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Полисеми&lt;/b&gt;: Эти элементы позволяют различным продуктам данных общаться с использованием общих сущностей, облегчая взаимодействие и согласованность данных в организации.&lt;/li&gt;
&lt;/ul&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Продукты данных&lt;/b&gt;: В основе Data Mesh лежат продукты данных, которые должны быть надлежащим образом документированы, поддерживаемы и принадлежать командам. Это включает определение метаданных, стандартов качества и механизмов обновления и версионирования.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Вызовы автономии&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Хотя автономия команд важна, она неизбежно приводит к расхождениям в используемых технологиях и принятых лучших практиках. Некоторые могут быть склонны к рецентрализации решений через единую платформу / технический стек (например, проект DBT с экземпляром Airflow). Однако это может просто перенести проблему на уровень платформы. Важно принимать и поддерживать эту автономию, определяя чёткие интерфейсы для продуктов данных и предоставляя платформу, которая способствует этой динамике.&lt;/p&gt;
&lt;p&gt;Эта технологическая разнородность может рассматриваться как актив, если она хорошо управляется. Позволяя каждой команде выбирать инструменты, которые лучше всего соответствуют их конкретным потребностям, это поощряет инновации и адаптивность. Однако важно установить стандарты и лучшие практики, чтобы обеспечить согласованность и взаимодействие реализованных решений.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Наша видение: Фреймворк для Data Mesh&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Учитывая эти идеи и основываясь на моих предыдущих обсуждениях о переходе от современного стека данных к принципам Data Mesh, я решил разработать фреймворк для управления Data Mesh. Цель не в том, чтобы предложить универсальный продукт, а в том, чтобы предоставить гибкий и модульный инструмент. Фреймворк направлен на:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Стандартизация интерфейсов&lt;/b&gt;: Предоставление общей рабочей рамки для доменов данных, продуктов данных, выходных портов, контрактов данных и т.д., тем самым облегчая ассимиляцию и понимание.&lt;/li&gt;
&lt;/ul&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Поддержка команд платформы&lt;/b&gt;: Помощь в создании платформ самообслуживания данных через стандартизацию компонентов, оставаясь при этом независимым от реализации.&lt;/li&gt;
&lt;/ul&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Предоставление модульных компонентов&lt;/b&gt;: Поставка “конструкторских” компонентов платформы, позволяющих пользователям выбирать, как они хотят переводить ресурсы Data Mesh на платформу.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Этот фреймворк разработан как модульный и адаптируемый, позволяя компаниям использовать его в соответствии с их конкретными потребностями. Будь то стандартизация процессов, поддержка команд или предложение модульных решений, фреймворк направлен на предоставление прочной основы для реализации и управления Data Mesh.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Alchemesh: Слои&lt;/b&gt;&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-87.png" width="422" height="616" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Фреймворк Alchemesh будет состоять из трёх слоёв:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Alchemesh Console&lt;/b&gt;: Отвечает за предоставление интерфейсов (UI, Rest API и т.д.) для управления метаданными Data Mesh:
&lt;ul&gt;
  &lt;li&gt;Позволяет пользователям перемещаться по Data Mesh,&lt;/li&gt;
  &lt;li&gt;Позволяет командам платформы переводить всё это в предоставление платформы.&lt;/li&gt;
  &lt;li&gt;Это будет порталом для действий с продуктом данных:
&lt;ul&gt;
    &lt;li&gt;Действует как реестр продуктов данных,&lt;/li&gt;
    &lt;li&gt;Интерфейс для разработчиков продуктов данных,&lt;/li&gt;
    &lt;li&gt;Интерфейс для команд платформы для активации платформы самообслуживания данных.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;&lt;b&gt;Alchemesh Controller&lt;/b&gt;: Это будет плоскость управления Data Mesh, которая будет управлять платформой Data Mesh. Она создаёт связь между метаданными Data Mesh, управляемыми консолью, и компонентами платформы в автоматизированном и самообслуживающемся режиме.&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="3"&gt;
&lt;li&gt;&lt;b&gt;Alchemesh Platform Components&lt;/b&gt;: Набор “конструкторских” компонентов платформы для самообслуживания. Компоненты платформы разделены на несколько категорий:
&lt;ul&gt;
  &lt;li&gt;&lt;b&gt;Infrastructure Platform Component&lt;/b&gt;: Определяет основу платформы для поддержки Data Mesh (например, проект/аккаунт облачного провайдера, VPC, реестры, кластер Kubernetes и т.д.).&lt;/li&gt;
  &lt;li&gt;&lt;b&gt;Output Port Platform Component&lt;/b&gt;: Создаёт компоненты хранения на инфраструктуре для предоставления данных, созданных продуктами данных, обеспечивая взаимодействие и управление доступом.&lt;/li&gt;
  &lt;li&gt;&lt;b&gt;Input Port Platform Component&lt;/b&gt;: Создаёт компоненты для потребления данных из операционных систем и делает их доступными для инфраструктуры продуктов данных, позволяя связанному коду форматировать их и создавать ценность продукта данных.&lt;/li&gt;
  &lt;li&gt;&lt;b&gt;Code Platform Component&lt;/b&gt;: Создаёт бизнес-логику на инфраструктуре, позволяя использовать входящие данные для получения желаемого результата.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;b&gt;Открытый исходный код&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Пока не ясно, какую стратегию мы будем применять в этом проекте в отношении открытого исходного кода, потому что далеко не ясно, куда пойдёт этот проект, это всё ещё сторонний проект, который близок нашим сердцам. Но мы так много обязаны открытому исходному коду, который помог нам расти, и мы счастливы работать с таким количеством разных людей, как мы делали это в NiFiKop, что некоторые из наших работ будут открыты, безусловно!&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Модульность&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Каждый из этих трёх слоёв может использоваться независимо и частично!&lt;/p&gt;
&lt;p&gt;С возможностью замены каждого из решений на пользовательские, в зависимости от того, как каждый будет использоваться:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Часть консоли может использоваться как слой метаданных для Data Mesh, затем потребляемый и контролируемый через интерфейсы (Rest, GraphQL, Events)
&lt;ul&gt;
  &lt;li&gt;командами платформы компании для интеграции с их системами автоматизации (CI/CD, контроллер GitOps, контроллер Kubernetes и т.д.)&lt;/li&gt;
  &lt;li&gt;для создания связи между метаданными сетки и платформой.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;ul&gt;
&lt;li&gt;Контроллер должен иметь возможность управлять компонентами платформы, предлагаемыми Alchemesh, а также теми, которые производятся организацией, использующей решение.&lt;/li&gt;
&lt;/ul&gt;
&lt;ul&gt;
&lt;li&gt;Компоненты платформы не должны быть специализированы для удовлетворения требований Alchemesh или даже просто Data Mesh.
&lt;ul&gt;
  &lt;li&gt;Они могут использоваться вне этого фреймворка, как и любой другой модуль. Например, если у меня есть компонент инфраструктуры, который позволяет мне создать кластер GKE через Terraform, он должен быть пригодным для создания кластера GKE в традиционной среде предприятия Terraform без необходимости использования консоли или контроллера, и то же самое касается выходного порта для управления хранилищем и правами доступа на BigQuery.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Заключение&lt;/b&gt;&lt;/p&gt;
&lt;p&gt;Data Mesh представляет собой глубокое преобразование в управлении данными, требующее коллективного обязательства и децентрализованной организации. С этим фреймворком, который мы хотим построить, мы стремимся поддержать компании в этом переходе, предлагая стандартизированные инструменты и интерфейсы, поддерживая автономию команд. Мы хотим на нашем уровне участвовать в эмпатии и размышлениях о Data Mesh, чтобы попытаться продвинуть мышление, чтобы полностью воспользоваться преимуществами Data Mesh, успешно преодолевая вызовы его реализации.&lt;/p&gt;
&lt;p&gt;Мы все ещё находимся на ранней стадии разработки этого фреймворка на основе нашего понимания Data Mesh. Реализация продукта также даёт нам рамки для развития нашего размышления, начиная с основных концепций (например, доменов данных, продуктов данных, контрактов данных и т.д.) до обогащения их функциями, продвигаемыми Data Mesh для обеспечения его масштабирования (например, вычислительных политик, контуров обратной связи и т.д.). Эта серия статей позволит нам делиться нашими размышлениями и решениями, которые мы принимали параллельно с разработкой!&lt;/p&gt;
&lt;p&gt;В следующей статье мы сосредоточимся на архитектуре “северной звезды”, которую мы в настоящее время используем для разработки этого фреймворка, а затем представим вам моделирование ресурсов (продукты данных, технические команды и т.д.), которые у нас есть для нашего MVP!&lt;/p&gt;
&lt;p&gt;Чтобы немного заинтриговать наш продукт, вот несколько набросков консоли AlchmeshIo. 😇&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-83.png" width="1400" height="1010" alt="" /&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-84.png" width="1400" height="992" alt="" /&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-85.png" width="1400" height="1002" alt="" /&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-86.png" width="1400" height="993" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Data product’s output port view&lt;/div&gt;
&lt;/div&gt;
</description>
</item>

<item>
<title>Хроники Apache SeaTunnel</title>
<guid isPermaLink="false">161</guid>
<link>https://gavrilov.info/all/hroniki-apache-seatunnel/</link>
<pubDate>Fri, 13 Sep 2024 01:00:24 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/hroniki-apache-seatunnel/</comments>
<description>
&lt;p&gt;Давно откопал этого китайского друга уже успело выйти пару версий. Не могу сказать, что хорошо с ним знаком, но чем то он меня по прежнему манит, то ли своей солидностью гибкой архитектуры, то ли масштабом  охвата и в то же время акценте на синхронизацию данных. Сложно сказать. Одно ясно, что достаточно легко его запускать как в локальном режиме, так и в кластером если нужно. А текстовые конфиги заданий вообще мечта, а еще есть даже sql формат для заданий.&lt;/p&gt;
&lt;p&gt;В общем знакомимся: &lt;a href="https://seatunnel.apache.org"&gt;https://seatunnel.apache.org&lt;/a&gt; Next-generation high-performance, distributed, massive data integration tool.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-78.png" width="1710" height="592" alt="" /&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-79.png" width="946" height="593" alt="" /&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-80.png" width="942" height="630" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Вспомнил я его из за последнего релиза, где добавили LLM трансформер. А изначально была идея делать на нем синхронизацию данных из Кафки в s3 iceberg прямиком. Идея еще жива и потихоньку обрастает пылью. Но когда нибудь наступит час и все случится :) но не сегодня.&lt;/p&gt;
&lt;p&gt;Пробуем записать файл 10gb в csv в s3:&lt;/p&gt;
&lt;h2&gt;Set the basic configuration of the task to be performed&lt;/h2&gt;
&lt;p&gt;Пишем конфигурацию:&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;env {
  parallelism = 1
  job.mode = &amp;quot;batch&amp;quot;
 # checkpoint.interval = 30000
 # checkpoint.timeout = 5000
}

# read csv
source {
  LocalFile {
  schema {
    fields {

vendorid=string
tpep_pickup_datetime=string
tpep_dropoff_datetime=string
passenger_count=string
trip_distance=string
ratecodeid=string
store_and_fwd_flag=string
pulocationid=string
dolocationid=string
payment_type=string
fare_amount=string
extra=string
mta_tax=string
tip_amount=string
tolls_amount=string
improvement_surcharge=string
total_amount=string


    }
  }
  path = &amp;quot;./2018_Yellow_Taxi_Trip_Data.csv&amp;quot;
  file_format_type = &amp;quot;csv&amp;quot;
  field_delimiter = &amp;quot;,&amp;quot;
 # datetime_format = &amp;quot;dd/MM/yyyy hh:mm:ss&amp;quot;
  skip_header_row_number = 1

}
}


transform {

}

#  csv to iceberg  
sink {
  iceberg {
    catalog_name = &amp;quot;iceberg&amp;quot;
    iceberg.catalog.config={
      &amp;quot;type&amp;quot;=&amp;quot;hive&amp;quot;
      &amp;quot;uri&amp;quot; = &amp;quot;thrift://metastore:9083&amp;quot;
      &amp;quot;warehouse&amp;quot;=&amp;quot;s3a://test/iceberg_p_listner5_podman/&amp;quot;
    }
    hadoop.config={
      &amp;quot;fs.s3a.aws.credentials.provider&amp;quot; = &amp;quot;org.apache.hadoop.fs.s3a.SimpleAWSCredentialsProvider&amp;quot;
      &amp;quot;fs.s3a.endpoint&amp;quot; = &amp;quot;gateway.storjshare.io&amp;quot;
      &amp;quot;fs.s3a.access.key&amp;quot; = &amp;quot;jvrKukurukutratatabq&amp;quot;
      &amp;quot;fs.s3a.secret.key&amp;quot; = &amp;quot;jzwnieshotutblablabla44imhhs&amp;quot;
      &amp;quot;fs.defaultFS&amp;quot; = &amp;quot;s3a://test/iceberg_p_listner5_podman/&amp;quot;
      &amp;quot;fs.s3a.impl&amp;quot;=&amp;quot;org.apache.hadoop.fs.s3a.S3AFileSystem&amp;quot;
    }
    namespace = &amp;quot;my_schema_i&amp;quot;
    table = &amp;quot;taxi5&amp;quot;
    iceberg.table.write-props={
      write.format.default=&amp;quot;parquet&amp;quot;
      write.parquet.compression-codec=&amp;quot;snappy&amp;quot;
      write.target-file-size-bytes=136870912
    }
 #   iceberg.table.primary-keys=&amp;quot;id&amp;quot;
#    iceberg.table.upsert-mode-enabled=true
 #   iceberg.table.schema-evolution-enabled=true
 #   case_sensitive=true
 #   result_table_name = &amp;quot;test_table&amp;quot;
 }
}&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;Запускаем конфигурацию:&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;./bin/seatunnel.sh --config ./config/V2.LLM.csv-ice1.config.template -m local&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;пьем чай пару минут&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;***********************************************
           Job Statistic Information
***********************************************
Start Time                : 2024-09-12 20:38:36
End Time                  : 2024-09-12 20:55:45
Total Time(s)             :                1028
Total Read Count          :           112234626
Total Write Count         :           112234626
Total Failed Count        :                   0
***********************************************&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;Готово.&lt;/p&gt;
&lt;p&gt;Файл был про такси Нью Йорка&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;VendorID,tpep_pickup_datetime,tpep_dropoff_datetime,passenger_count,trip_distance,RatecodeID,store_and_fwd_flag,PULocationID,DOLocationID,payment_type,fare_amount,extra,mta_tax,tip_amount,tolls_amount,improvement_surcharge,total_amount
1,02/06/2018 02:05:59 PM,02/06/2018 02:13:00 PM,1,1.1,1,N,161,100,2,6.5,0,0.5,0,0,0.3,7.3
1,02/06/2018 02:33:25 PM,02/06/2018 02:43:47 PM,1,1.1,1,N,170,161,1,8,0,0.5,1.75,0,0.3,10.55
1,02/06/2018 02:46:31 PM,02/06/2018 02:53:13 PM,1,0.9,1,N,161,170,2,6.5,0,0.5,0,0,0.3,7.3
1,02/06/2018 02:55:34 PM,02/06/2018 03:13:34 PM,1,6.1,1,N,170,231,1,20.5,0,0.5,2,0,0.3,23.3
1,02/06/2018 02:00:41 PM,02/06/2018 02:16:07 PM,1,1.4,1,N,163,170,1,10.5,0,0.5,2.25,0,0.3,13.55
1,02/06/2018 02:24:55 PM,02/06/2018 02:31:25 PM,1,0.7,1,N,170,161,1,6,0,0.5,1,0,0.3,7.8
1,02/06/2018 02:37:16 PM,02/06/2018 02:53:57 PM,1,2.2,1,N,162,262,2,12.5,0,0.5,0,0,0.3,13.3
1,02/06/2018 02:57:05 PM,02/06/2018 03:10:26 PM,1,1.8,1,N,262,162,1,11,0,0.5,2.35,0,0.3,14.15
1,02/06/2018 02:01:55 PM,02/06/2018 02:04:56 PM,1,0.4,1,N,239,143,2,4,0,0.5,0,0,0.3,4.8
и так далее до 112 234 626 строки&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;В Трино все хорошо&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2024-09-13-v-00.13.37.png" width="1128" height="556" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Строки есть&lt;/div&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2024-09-13-v-00.14.00.png" width="788" height="458" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Каунты хорошие&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;Но пришлось немного подрулить java в файле ./config/jvm_client_options&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;# JVM Heap
-Xms556m
-Xmx1512m&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;Задание после этого шло более стабильно.&lt;/p&gt;
&lt;p&gt;Промежуточный контрольный лог выглядит норм:&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;2024-09-12 20:53:16,054 INFO  [c.h.i.d.HealthMonitor         ] [hz.main.HealthMonitor] - [localhost]:5801 [seatunnel-872250] [5.1] processors=6, physical.memory.total=14.5G, physical.memory.free=419.0M, swap.space.total=0, swap.space.free=0, heap.memory.used=1.0G, heap.memory.free=437.8M, heap.memory.total=1.4G, heap.memory.max=1.4G, heap.memory.used/total=70.25%, heap.memory.used/max=70.25%, minor.gc.count=5327, minor.gc.time=32576ms, major.gc.count=7, major.gc.time=677ms, load.process=40.78%, load.system=41.68%, load.systemAverage=2.35, thread.count=151, thread.peakCount=163, cluster.timeDiff=0, event.q.size=0, executor.q.async.size=0, executor.q.client.size=0, executor.q.client.query.size=0, executor.q.client.blocking.size=0, executor.q.query.size=0, executor.q.scheduled.size=0, executor.q.io.size=0, executor.q.system.size=0, executor.q.operations.size=0, executor.q.priorityOperation.size=0, operations.completed.count=764, executor.q.mapLoad.size=0, executor.q.mapLoadAllKeys.size=0, executor.q.cluster.size=0, executor.q.response.size=0, operations.running.count=0, operations.pending.invocations.percentage=0.00%, operations.pending.invocations.count=0, proxy.count=10, clientEndpoint.count=1, connection.active.count=0, client.connection.count=0, connection.count=0&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;Важно добавить:&lt;br /&gt;
Задание падало не ясно почему. Хазлкаст куда-то девался и писал проблемы с тайм-аутами.&lt;br /&gt;
тут все изложил, но пока все описывал нашел ошибки. &lt;a href="https://github.com/apache/seatunnel/issues/7650"&gt;https://github.com/apache/seatunnel/issues/7650&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Писал слишком маленькие файлы и накосячил с полями, они оказывается чувствительные к регистру.&lt;/p&gt;
&lt;p&gt;А еще заметил, что когда задание падает, то Селесты в трико не проходят. Точнее показывают пустую таблицу, но вот в s3 файлы есть. Команда optimize ничего не дает, все равно остаются.&lt;/p&gt;
&lt;p&gt;в итоге пока не нашел как почистить ошибочные файлы.&lt;/p&gt;
&lt;p&gt;а вот еще пример с моделью llm gpt4o. Для доступа к api я использовать сервис &lt;a href="http://proxyapi.ru"&gt;http://proxyapi.ru&lt;/a&gt; – вроде не очень дорого и удобно платить с России и расходовать по мере использования. Еще пользуюсь этим &lt;a href="http://openrouter.ai"&gt;http://openrouter.ai&lt;/a&gt; там большое моделей, но платить чуть сложнее, можно криптой оплатить.&lt;/p&gt;
&lt;p&gt;И так, вот пример конфига:&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;# Set the basic configuration of the task to be performed111
env {
  parallelism = 1
  job.mode = &amp;quot;batch&amp;quot;
 # checkpoint.interval = 30000
 # checkpoint.timeout = 5000
}

# Create a source to connect to Clickhouse
source {
  Clickhouse {
    host = &amp;quot;some-clickhouse-server:8123&amp;quot;
    database = &amp;quot;default&amp;quot;
    sql = &amp;quot;select * from test_table&amp;quot;
    username = &amp;quot;&amp;quot;
    password = &amp;quot;&amp;quot;
    server_time_zone = &amp;quot;UTC&amp;quot;
  #  result_table_name = &amp;quot;test_table&amp;quot;
    clickhouse.config = {
      &amp;quot;socket_timeout&amp;quot;: &amp;quot;300000&amp;quot;
    }
  }
}


transform {
  LLM {
    model_provider = OPENAI
    model = gpt-4o
    api_key = sk-GIkitutblablabalkakayatoest5D33l5a
    prompt = &amp;quot;Determine whether someone is Chinese, American or Russian, give a feedback in json string with quatation&amp;quot;
    openai.api_path  = &amp;quot;https://api.proxyapi.ru/openai/v1/chat/completions&amp;quot;
    output_data_type = &amp;quot;STRING&amp;quot;
    
  }
}

# Console printing of the read Clickhouse data
sink {
  iceberg {
    catalog_name = &amp;quot;iceberg&amp;quot;
    iceberg.catalog.config={
      &amp;quot;type&amp;quot;=&amp;quot;hive&amp;quot;
      &amp;quot;uri&amp;quot; = &amp;quot;thrift://metastore:9083&amp;quot;
      &amp;quot;warehouse&amp;quot;=&amp;quot;s3a://test/iceberg_p_listner5_podman/&amp;quot;
    }
    hadoop.config={
      &amp;quot;fs.s3a.aws.credentials.provider&amp;quot; = &amp;quot;org.apache.hadoop.fs.s3a.SimpleAWSCredentialsProvider&amp;quot;
      &amp;quot;fs.s3a.endpoint&amp;quot; = &amp;quot;gateway.storjshare.io&amp;quot;
      &amp;quot;fs.s3a.access.key&amp;quot; = &amp;quot;jvr2blablablayjrbq&amp;quot;
      &amp;quot;fs.s3a.secret.key&amp;quot; = &amp;quot;jzwnleotuteshokayayatohrenbilaqskh3323imhhs&amp;quot;
      &amp;quot;fs.defaultFS&amp;quot; = &amp;quot;s3a://test/iceberg_p_listner5_podman/&amp;quot;
      &amp;quot;fs.s3a.impl&amp;quot;=&amp;quot;org.apache.hadoop.fs.s3a.S3AFileSystem&amp;quot;
    }
    namespace = &amp;quot;my_schema_i&amp;quot;
    table = &amp;quot;test_table6&amp;quot;
    iceberg.table.write-props={
      write.format.default=&amp;quot;parquet&amp;quot;
      write.parquet.compression-codec=&amp;quot;snappy&amp;quot;
      write.target-file-size-bytes=536870
    }
    iceberg.table.primary-keys=&amp;quot;id&amp;quot;
    iceberg.table.upsert-mode-enabled=true
    iceberg.table.schema-evolution-enabled=true
    case_sensitive=true
 #   result_table_name = &amp;quot;test_table&amp;quot;
 }
}&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;Таблица в клике была такая:&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2024-09-13-v-00.49.12.png" width="512" height="928" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;схемка эта:&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;CREATE TABLE default.test_table
(
    `id` Int32,
    `name` String
)
ENGINE = MergeTree
ORDER BY id
SETTINGS index_granularity = 8192
......
insert into  `default`.test_table values (7, 'Petya')
insert into  `default`.test_table values (8, 'Dasha')
insert into  `default`.test_table values (9, 'Dima')
insert into  `default`.test_table values (10, 'Tony')
insert into  `default`.test_table values (11, 'Fekla')
insert into  `default`.test_table values (12, 'Jekie Chan')
insert into  `default`.test_table values (13, 'ben')
insert into  `default`.test_table values (14, 'Howard')
insert into  `default`.test_table values (16, 'Semen')
insert into  `default`.test_table values (17, 'Katya')
insert into  `default`.test_table values (18, 'Kostya')
insert into  `default`.test_table values (19, 'Natasha')
insert into  `default`.test_table values (20, 'Tonya')
insert into  `default`.test_table values (21, 'Tanya')
.....&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;Что выходит в итоге:&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2024-09-13-v-00.53.03.png" width="778" height="1152" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Данные были прочитаны из clickhouse и отправлены в модель построчно.&lt;br /&gt;
Модель ответила и заполнила колонку llm_outputю.&lt;/p&gt;
&lt;pre class="e2-text-code"&gt;&lt;code class=""&gt;2024-09-12 21:47:12,075 INFO  [s.c.s.s.c.ClientExecuteCommand] [main] - 
***********************************************
           Job Statistic Information
***********************************************
Start Time                : 2024-09-12 21:46:33
End Time                  : 2024-09-12 21:47:12
Total Time(s)             :                  38
Total Read Count          :                  21
Total Write Count         :                  21
Total Failed Count        :                   0
***********************************************&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;В общем если хотите пробуйте SeaTunnel. Норм работает и качество улучшается.&lt;br /&gt;
Iceberg например не получалось у меня загрузить в прошлой версии 2.3.7, пришлось собрать свежую по рекомендации. в Ней еще надо было добавить пару либ. Они не все нужны, но обязательны для hive внизу плагины hive-exec-3.1.3.jar и libfb303-0.9.3.jar, ну и рабочая либа seatunnel-hadoop3-3.1.4-uber.jar из за которой как раз и пришлось все собирать вручную.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Snimok-ekrana-2024-09-13-v-00.58.20.png" width="842" height="1090" alt="" /&gt;
&lt;/div&gt;
</description>
</item>

<item>
<title>Портал продуктов данных: интеграция с вашей платформой данных</title>
<guid isPermaLink="false">160</guid>
<link>https://gavrilov.info/all/portal-produktov-dannyh-integraciya-s-vashey-platformoy-dannyh/</link>
<pubDate>Wed, 04 Sep 2024 21:12:47 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/portal-produktov-dannyh-integraciya-s-vashey-platformoy-dannyh/</comments>
<description>
&lt;p&gt;Портал продуктов данных: интеграция с вашей платформой данных&lt;/p&gt;
&lt;p&gt;Несколько недель назад мы объявили о выпуске Портала продуктов данных в качестве репозитория с открытым исходным кодом. Портал продуктов данных — это инструмент с открытым исходным кодом, предназначенный для помощи организациям в создании и управлении продуктами данных в широком масштабе. Он интуитивно понятен, гибок и направлен на упрощение и повышение эффективности управления продуктами данных.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-72.png" width="1400" height="459" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Пример интерфейса портала продуктов данных&lt;/p&gt;
&lt;p&gt;Цель его заключается в интеграции всех аспектов данных, связанных с управлением, платформами данных и управлением пользователями, в единое решение. Мы часто получаем вопросы о том, как портал продуктов данных взаимодействует с платформами данных и инструментами. Цель этого блога — объяснить именно это. Он охватывает такие вопросы, как: как портал продуктов данных будет взаимодействовать с моей платформой данных, как определяются продукты данных, как люди могут взаимодействовать с продуктами данных и их объемом доступа к данным, как это переводится в ресурсы платформы данных, такие как хранилища данных, базы данных и инструменты для создания продуктов данных.&lt;/p&gt;
&lt;p&gt;Пример в этом блоге основан на AWS. В будущих версиях портала продуктов данных мы планируем добавить поддержку других платформ данных, таких как Databricks, Snowflake, Azure и других. Будем рады вашим вкладам, если вы хотите ускорить разработку!&lt;/p&gt;
&lt;p&gt;Концепции портала продуктов данных&lt;/p&gt;
&lt;p&gt;В анонсирующем блоге мы описали продукт данных как: Инициатива с ясной целью, находящаяся под ответственностью отдела или домена, состоящая из: доступа к данным, инструментов и артефактов, в которой члены команды работают вместе. Результаты продуктов данных могут быть разделены для использования с другими продуктами данных. Эти концепции продуктов данных можно визуализировать следующим образом:&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-73.png" width="1400" height="788" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Как продукты данных взаимодействуют друг с другом&lt;/p&gt;
&lt;p&gt;Одним из важных последствий является то, что доступ к данным организован на уровне продукта данных, а не на уровне человека. Это означает, что объемные разрешения на доступ к данным и другие правила управления делятся между обработкой, инструментами и людьми в рамках этого продукта данных. Это приносит дополнительные преимущества, но если вы хотите узнать больше об этом, вы можете прочитать следующий блог.&lt;/p&gt;
&lt;p&gt;Сложность, связанная с подходом к мышлению о продукте данных, заключается в разработке практической реализации, которая сочетает эти концепции вместе. Как настроить объем продукта данных для вашей платформы данных, требования к управлению данными и людей, которым нужно взаимодействовать с продуктом данных, — это сложная задача для решения.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-74.png" width="789" height="563" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Как портал стремится объединить платформы данных, управление и людей в единое понятие&lt;/p&gt;
&lt;p&gt;Концепции интеграции&lt;/p&gt;
&lt;p&gt;Здесь вступает в игру портал продуктов данных. Это инструмент процесса, который предоставляет четкие и простые концепции, которые переводятся в практическую реализацию. Это помогает как техническим специалистам, работающим над продуктами данных, так и людям из бизнес-отделов контролировать и предоставлять информацию о том, как их данные используются в организации.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-75.png" width="2000" height="752" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Концепция интеграции на высоком уровне&lt;/p&gt;
&lt;p&gt;На диаграмме выше люди, работающие с данными и бизнес-пользователи, взаимодействуют с порталом продуктов данных через наш интерфейс процесса для настройки своих продуктов данных и организации доступа к данным, произведенным другими продуктами данных. Эта конфигурация хранится и управляется в бэкэнде портала продуктов данных. Логика конфигурации платформы данных может взаимодействовать с API портала продуктов данных для извлечения этой конфигурации. Эта логика будет переводить эту конфигурацию в практическую реализацию того, как:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Настроить доступ к данным: Создайте разрешения на доступ к данным для каждого продукта данных и позвольте людям, платформам данных и инструментам взаимодействовать с этими данными в рамках продукта данных.&lt;/li&gt;
&lt;li&gt;Настроить платформы данных: Правильно настраивайте платформы данных, чтобы иметь возможность создавать продукты данных и позволять людям делать это в рамках продукта данных с правильными разрешениями на доступ к данным.&lt;/li&gt;
&lt;li&gt;Настроить инструменты: Люди, работающие с данными, должны взаимодействовать с множеством инструментов, чтобы иметь возможность создавать/запускать и эксплуатировать продукты данных. Портал гарантирует, что эти инструменты правильно настроены и интегрированы для ваших пользователей в рамках продукта данных.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Команды платформ данных могут писать свою собственную логику конфигурации на основе этих концепций, но они также могут использовать логику конфигурации по умолчанию, предоставляемую порталом продуктов данных и написанную в Terraform. С логикой конфигурации по умолчанию мы предлагаем интеграции с AWS и Conveyor из коробки, но намерены расширять эти интеграции для Databricks, Azure, Snowflake, Tableau, Collibra и других релевантных инструментов.&lt;/p&gt;
&lt;p&gt;Шаги интеграции&lt;/p&gt;
&lt;p&gt;Если вы хотите использовать интеграцию по умолчанию с AWS с использованием terraform, предоставленную порталом продуктов данных, вы можете сделать это, выполнив следующие шаги. Больше информации доступно в нашем репозитории open source.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-76.png" width="549" height="107" alt="" /&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-77.png" width="1400" height="473" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Заключительные мысли&lt;/p&gt;
&lt;p&gt;Из опыта мы узнали, что многие организации испытывают трудности с переводом своей стратегии мышления о самообслуживании продуктов данных в практическую реализацию. Мы надеемся, что портал продуктов данных вдохновит вас на то, как это на самом деле достичь, и предлагаем вам его попробовать! Если вы хотите узнать больше, пожалуйста, ознакомьтесь с нашим репозиторием на GitHub или напрямую взаимодействуйте с нами в нашем Slack-канале.&lt;/p&gt;
&lt;p&gt;Перевод: &lt;a href="https://medium.com/conveyordata/data-product-portal-integrating-with-your-data-platform-41bf9fcf1fc1"&gt;https://medium.com/conveyordata/data-product-portal-integrating-with-your-data-platform-41bf9fcf1fc1&lt;/a&gt;&lt;/p&gt;
</description>
</item>

<item>
<title>Почему мы перешли с Dremio на Trino</title>
<guid isPermaLink="false">150</guid>
<link>https://gavrilov.info/all/pochemu-my-pereshli-s-dremio-na-trino/</link>
<pubDate>Fri, 19 Jul 2024 17:59:38 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/pochemu-my-pereshli-s-dremio-na-trino/</comments>
<enclosure url="https://gavrilov.info/video/Data_Mesh.mp4" type="video/mp4" length="18306803" />
<description>
&lt;p&gt;В нашей постоянно развивающейся индустрии данных, выбор правильного инструмента может существенно повлиять на эффективность и гибкость работы. Мы недавно перешли с Dremio на Trino. Решение об этом шаге было принято после анализа и испытаний, и в этой статье я расскажу о причинах этого перехода, особенностях каждого продукта, а также о том, как это повлияет на нашу работу в рамках концепции Data Mesh.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Lamba.png" width="1298" height="862" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;&lt;b&gt;Московский художник Даниил Кудряшов&lt;/b&gt; &lt;a href="https://kudryashovdd.com/allartworks"&gt;https://kudryashovdd.com/allartworks&lt;/a&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/Mers.png" width="1212" height="862" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;&lt;b&gt;Московский художник Даниил Кудряшов&lt;/b&gt; &lt;a href="https://kudryashovdd.com/allartworks"&gt;https://kudryashovdd.com/allartworks&lt;/a&gt;&lt;/div&gt;
&lt;/div&gt;
&lt;h3&gt;Dremio и Trino: Основные Отличия&lt;/h3&gt;
&lt;p&gt;Dremio позиционируется как коробочный продукт, который предоставляет целый набор инструментов “из коробки”. Эта платформа позволяет пользователям выполнять аналитические запросы на больших наборах данных с использованием своего движка SQL. По своей природе Dremio старается исполнять запросы внутри себя, что зачастую приводит к необходимости выгрузки значительных объёмов данных из источника, прежде чем приступать к анализу. Это, в свою очередь, увеличивает время ожидания для пользователей и потребляет дополнительные ресурсы.&lt;/p&gt;
&lt;p&gt;Dremio имеет свои плюсы и минусы:&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Плюсы:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Лёгкость в использовании и интеграции.&lt;/li&gt;
&lt;li&gt;Поддержка современных форматов данных.&lt;/li&gt;
&lt;li&gt;Концепция data-as-code.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;b&gt;Минусы:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Высокая стоимость лицензий и серверов.&lt;/li&gt;
&lt;li&gt;Особеннсоти исполнения запросов, которые нагружают систему источник.&lt;/li&gt;
&lt;li&gt;Ограниченные настройки и закрытый код.&lt;/li&gt;
&lt;li&gt;Ограниченная возможность кастомизации.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;И конечно отсутствие обновлений, поддержки, что фактически является тупиком в развитии для нас.&lt;/p&gt;
&lt;h3&gt;Trino&lt;/h3&gt;
&lt;p&gt;Trino, ранее известный как PrestoSQL, представляет собой SQL-движок, который отлично подходит для платформ данных, требующих высокой степени кастомизации. В отличие от Dremio, Trino выполняет запросы ровно так, как это указано в SQL, что позволяет избежать излишних выгрузок данных и оптимизировать процесс обработки запросов. Благодаря своей открытой архитектуре, Trino предоставляет гибкость в настройках и кастомизации, что является ключевым преимуществом. Trino хорошо интегрируется с такими технологиями как Iceberg и Data Build Tool, kafka и многими другими, что обеспечивает более эффективное управление данными и их структурой. Позволяет нам выполнять запросы к данным в топиках Kafka, что особенно востребовано в текущий момент, а также легко добавлять новые типы коннекторов, Dremio так не умеет.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Плюсы:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Открытая архитектура и возможность кастомизации.&lt;/li&gt;
&lt;li&gt;Высокая производительность и эффективность.&lt;/li&gt;
&lt;li&gt;Поддержка современных форматов данных и подключений.&lt;/li&gt;
&lt;li&gt;Развитое сообщество и документация.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Компания CedrusData – полностью российская компания и занимается ускорением базового Trino, Cedrus это фактически Trino на стероидах. Компания занимается развитием как новой функциональности, так и разрешением ошибок и просто поддержкой.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Минусы:&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Необходимость дополнительных настроек и конфигураций.&lt;/li&gt;
&lt;li&gt;Потребность в более глубоком техническом знании.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Причины Перехода&lt;/h3&gt;
&lt;h3&gt;Гибкость и Настраиваемость&lt;/h3&gt;
&lt;p&gt;Одной из основных причин перехода с Dremio на Trino является гибкость и настраиваемость последнего. Trino позволяет легко адаптировать платформу данных под любые потребности, что особенно важно в рамках нашей концепции Data Mesh. Это значительно упрощает управление данными и позволяет экономить ресурсы, разделяя хранение данных от вычислительных мощностей.&lt;/p&gt;
&lt;h3&gt;Открытая Архитектура и Сообщество&lt;/h3&gt;
&lt;p&gt;Trino имеет открытую архитектуру, что позволяет любому внести изменения или предложить улучшения. Это делает платформу более гибкой и быстро адаптирующейся к изменяющимся требованиям. Большое сообщество пользователей и разработчиков обеспечивает постоянное обновление и улучшение функциональности, что гарантирует высокую производительность и актуальность продукта.&lt;/p&gt;
&lt;h3&gt;Экономия Ресурсов&lt;/h3&gt;
&lt;p&gt;Trino требует меньших затрат на исполнение запросов, что уменьшает нагрузку на инфраструктуру и сокращает расходы. Пользователи могут обращаться с данными на любом хранении, будь то Oracle или файлы CSV, благодаря единому SQL-интерфейсу.&lt;/p&gt;
&lt;h3&gt;Безопасность и Управление&lt;/h3&gt;
&lt;p&gt;Хотя Dremio предлагал платные функции безопасности, бесплатная версия не могла удовлетворить наши требования. Trino, напротив, предлагает широкий спектр настроек безопасности, а также возможность интеграции с различными инструментами управления данными.&lt;/p&gt;
&lt;h3&gt;Поддержка и Документация&lt;/h3&gt;
&lt;p&gt;Trino имеет обширную документацию и активное сообщество, что обеспечивает поддержку и обмен опытом между пользователями. В отличие от Dremio, где настройки часто являются закрытыми и требуют вмешательства поддержки, которой у нас уже нет, Trino предоставляет полный доступ к настройкам и их описаниям.&lt;/p&gt;
&lt;h3&gt;Влияние на Платформу&lt;/h3&gt;
&lt;p&gt;Переход на Trino позволит нам лучше следовать Data Mesh и основным принципым, а именно:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Видимость:&lt;/b&gt; данные станут более доступными и легко находимыми для пользователей.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Доступность:&lt;/b&gt; пользователи смогут быстро извлекать данные из различных систем и форматов.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Понимание:&lt;/b&gt; наличие описаний данных поможет лучше понимать контекст и содержание.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Связность:&lt;/b&gt; пользователи смогут легко использовать дополнительные атрибуты благодаря связям в данных.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Доверие:&lt;/b&gt; уверенность в качестве данных будет повышена.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Совместимость:&lt;/b&gt; общие представления о данных у производителей и потребителей.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Безопасность:&lt;/b&gt; данные будут защищены от несанкционированного доступа и манипуляций.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Что такое Data Mesh?&lt;/p&gt;
&lt;div class="e2-text-video"&gt;
&lt;video src="https://gavrilov.info/video/Data_Mesh.mp4#t=0.001" width="854" height="480" controls alt="" /&gt;

&lt;/div&gt;
&lt;h3&gt;Заключение&lt;/h3&gt;
&lt;p&gt;Переход с Dremio на Trino – это важный шаг на пути к улучшению нашей платформы данных. Мы уверены, что гибкость, высокая производительность и открытая архитектура Trino помогут нам достигнуть новых высот в управлении и анализе данных. Следите за новостями и присоединяйтесь к обсуждению в нашем чате поддержки!&lt;/p&gt;
&lt;p&gt;Всем хороших выходных! Напишите в комментариях, как вам запомнился Dremio, и что вы пожелаете новому ядру на базе Trino.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-59.png" width="1280" height="960" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;&lt;b&gt;Калининград, выезд БИТа&lt;/b&gt;&lt;/div&gt;
&lt;/div&gt;
</description>
</item>

<item>
<title>Data Products Starburst Special Edition</title>
<guid isPermaLink="false">135</guid>
<link>https://gavrilov.info/all/data-products-starburst-special-edition/</link>
<pubDate>Mon, 17 Jun 2024 21:14:50 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/data-products-starburst-special-edition/</comments>
<description>
&lt;h4&gt;Новая книга по теме “Продукты данных” на основе исходного текста с комментариями GPT&lt;/h4&gt;
&lt;h5&gt;© 2023 John Wiley &amp; Sons, Inc. Любое распространение, копирование или несанкционированное использование строго запрещено.&lt;/h5&gt;
&lt;h4&gt;Продукты данных&lt;/h4&gt;
&lt;p&gt;Специальное издание Starburst&lt;br /&gt;
Авторы: Вишал Сингх, Рио Коматсузаки и Эндрю Мотт, MBA&lt;/p&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;p&gt;Исходные материалы защищены авторским правом © 2023 John Wiley &amp; Sons, Inc., Hoboken, Нью-Джерси. Никакая часть данной публикации не может быть воспроизведена, сохранена в системе или передана в любой форме или любыми средствами без предварительного письменного разрешения издателя.&lt;/p&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;Оглавление&lt;/h4&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Что такое продукты данных?&lt;/li&gt;
&lt;li&gt;Создание, управление и оптимизация продуктов данных&lt;/li&gt;
&lt;li&gt;Персонал и процессы&lt;/li&gt;
&lt;li&gt;Десять советов по внедрению продуктов данных&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;Глава 1: Определение продуктов данных&lt;/h4&gt;
&lt;h5&gt;Введение&lt;/h5&gt;
&lt;p&gt;Максимизация ценности данных остается постоянной проблемой для бизнеса. Одним из последних вкладов в эту область является концепция &lt;b&gt;data mesh&lt;/b&gt; (сетевая структура данных), которая представляет собой децентрализованный и распределенный подход к управлению корпоративными данными. В этой главе мы ознакомимся с идеей продукта данных и анализируем ее роль в модернизации стратегий аналитики данных.&lt;/p&gt;
&lt;h5&gt;Что такое продукт данных?&lt;/h5&gt;
&lt;p&gt;Быстрый поиск в интернете приведет к двум связанным, но различным терминам:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Data as a product&lt;/b&gt; (данные как продукт) — это применение принципов управления продуктом к данным для повышения их использования и ценности.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Data product&lt;/b&gt; (продукт данных) — это комбинация отобранных, повторно используемых наборов данных, созданных для предоставления проверенных данных конечным пользователям. Продукт данных включает метаданные, упрощающие поиск и использование данных.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Комментарий GPT: Разделение понятий “данные как продукт” и “продукт данных” помогает понять различие между методологическим подходом и конечным результатом, что важно для четкого понимания концепций.&lt;/p&gt;
&lt;h5&gt;Продукты данных и data mesh&lt;/h5&gt;
&lt;p&gt;В рамках концепции data mesh продукт данных — это самодостаточная сущность, состоящая из кода для сбора, трансформации и определения метаданных, а также инфраструктуры для запуска этого кода. Продукт данных должен обладать следующими качествами:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Обнаружимость&lt;/li&gt;
&lt;li&gt;Доступность&lt;/li&gt;
&lt;li&gt;Доверие&lt;/li&gt;
&lt;li&gt;Самоописательная интероперабельность&lt;/li&gt;
&lt;li&gt;Безопасность&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Комментарий GPT: Подход data mesh подчеркивает важность децентрализации и передачи ответственности непосредственно командам разработки приложений, что может существенно повысить гибкость организации.&lt;/p&gt;
&lt;h5&gt;Улучшение бизнес-ценности&lt;/h5&gt;
&lt;p&gt;Приоритет и постоянное улучшение продуктов данных помогают сократить путь от данных до бизнес-ценности. Процесс итерации позволяет адаптироваться к изменениям в корпоративной среде и обеспечить соответствие продуктам данных потребностям заинтересованных сторон.&lt;/p&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;Глава 2: Создание, управление и оптимизация продуктов данных&lt;/h4&gt;
&lt;h5&gt;Введение&lt;/h5&gt;
&lt;p&gt;Эта глава посвящена ключевым аспектам успешной программы продуктов данных: дизайну, удобству использования, масштабируемости и технологии.&lt;/p&gt;
&lt;h5&gt;Дизайн продуктов данных для ценности&lt;/h5&gt;
&lt;p&gt;Первые успехи вашей программы продуктов данных будут наиболее заметны благодаря бизнес-ценности, предоставленной начальными продуктами. Удельное внимание стоит уделить:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Обнаруживаемость данных&lt;/b&gt;: Метаданные, функции поиска и категоризация данных помогают пользователям находить нужные данные.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Самообслуживание и удобство использования&lt;/b&gt;: Дружелюбный интерфейс и наличие документации облегчают пользователям самостоятельный анализ данных.&lt;/li&gt;
&lt;/ul&gt;
&lt;h5&gt;Масштабирование продуктов данных&lt;/h5&gt;
&lt;p&gt;Продукты данных служат строительными блоками для создания более сложных продуктов. Важнейшие аспекты масштабирования включают стандартизацию и интероперабельность.&lt;/p&gt;
&lt;h5&gt;Управление в большом масштабе&lt;/h5&gt;
&lt;p&gt;Платформы управления продуктами данных помогают администраторам по централизации и автоматизации различных процессов управления данными. Это включает управление метаданными, проверку качества данных, доступом и безопасностью, интеграцию данных и отслеживание аналитики.&lt;/p&gt;
&lt;h5&gt;Снижение стоимости владения&lt;/h5&gt;
&lt;p&gt;Автоматизация процессов управления данными и улучшение качества данных помогают снижать операционные расходы и повышать эффективность.&lt;/p&gt;
&lt;p&gt;Комментарий GPT: Снижение стоимости владения продуктами данных — ключевой аспект, который может значительно повлиять на долгосрочную финансовую стабильность и конкурентоспособность организации.&lt;/p&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;Глава 3: Персонал и процессы&lt;/h4&gt;
&lt;h5&gt;Введение&lt;/h5&gt;
&lt;p&gt;Продукты данных служат единицами обмена между производителями и потребителями данных. В этой главе рассматриваются основные роли и процессы, необходимые для успешного создания и управления продуктами данных.&lt;/p&gt;
&lt;h5&gt;Построение ваших команд данных&lt;/h5&gt;
&lt;p&gt;Ключевые роли включают:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;b&gt;Инженер платформы данных&lt;/b&gt;: Ответственен за инфраструктуру и обеспечивает рамки для успешного создания продуктов данных.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Производитель продукта данных&lt;/b&gt;: Включает менеджера и инженера продукта данных, которые совместно работают над реализацией продуктов данных.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Потребитель данных&lt;/b&gt;: Аналитики данных и ученые данных, которые используют продукты данных для создания бизнес-ценности.&lt;/li&gt;
&lt;/ul&gt;
&lt;h5&gt;Платформа продуктов данных&lt;/h5&gt;
&lt;p&gt;Централизация управления и доступ к данным обеспечивают высокую степень обнаружимости и доступности продуктов данных.&lt;/p&gt;
&lt;h5&gt;Центральные и децентрализованные политики управления&lt;/h5&gt;
&lt;p&gt;Лучший подход — это централизованное управление с децентрализованным доверием к управлениям отдельных доменов данных через единую централизованную платформу.&lt;/p&gt;
&lt;p&gt;Комментарий GPT: Это позволяет сохранить баланс между контролем и гибкостью, что особенно важно в больших организациях с множеством данных и разнообразными требованиями.&lt;/p&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;Глава 4: Десять советов по внедрению продуктов данных&lt;/h4&gt;
&lt;ol start="1"&gt;
&lt;li&gt;&lt;b&gt;Сфокусируйтесь на бизнес-ценности&lt;/b&gt;: Технологии должны помогать разработчикам продуктов данных концентрироваться на данных и их бизнес-контексте.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Связывайте продукты данных с ключевыми показателями эффективности (KPI)&lt;/b&gt;: Это обеспечивает их актуальность и ценность.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Учитывайте пользовательские метрики и общую стоимость владения (TCO)&lt;/b&gt;: Это помогает оптимизировать стратегии и инвестиции в данные.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Обеспечьте управление на основе ролей и ответственности бизнеса&lt;/b&gt;: Это способствует доверию и правильному использованию данных.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Дизайн с учетом потребностей потребителей&lt;/b&gt;: Максимальная ценность достигается при внимании к потребностям и предпочтениям пользователей.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Повторное использование без создания копий&lt;/b&gt;: Это экономично и предотвращает раздутие данных.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Стимулируйте производство и использование данных&lt;/b&gt;: Избегайте теневой ИТ.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Инвестируйте в роль владельца/менеджера продуктов данных&lt;/b&gt;: Они обеспечивают стратегическое управление продуктами данных.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Итерация — ключ&lt;/b&gt;: Постоянное совершенствование гарантирует актуальность продуктов данных.&lt;/li&gt;
&lt;li&gt;&lt;b&gt;Инвестируйте в культуру вашей организации&lt;/b&gt;: Одобрение данных на уровне культуры способствует устойчивому успеху.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Комментарий GPT: Эти советы помогут обеспечить плавное внедрение продуктов данных, увеличивая их ценность и эффективность в рамках организации.&lt;/p&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;h4&gt;Лицензионное соглашение с конечным пользователем&lt;/h4&gt;
&lt;p&gt;Перейдите на www.wiley.com/go/eula для доступа к лицензионному соглашению для электронной книги Wiley.&lt;/p&gt;
&lt;p&gt;---&lt;/p&gt;
&lt;p&gt;Таким образом, данная книга содержит исчерпывающую информацию о создании, управлении и оптимизации продуктов данных. Она также включает советы и рекомендации, основанные на проверенных практиках, что делает её полезным инструментом для любой организации, стремящейся улучшить свои стратегии управления данными.&lt;/p&gt;
&lt;p&gt;Оригинал тут: &lt;a href="http://a.gavrilov.info/data/posts/Data-Products-For-Dummies.pdf"&gt;Data-Products-For-Dummies.pdf&lt;/a&gt;&lt;/p&gt;
</description>
</item>

<item>
<title>Представляем data mesh 2.0: Новая эра управления данными</title>
<guid isPermaLink="false">112</guid>
<link>https://gavrilov.info/all/introducing-data-mesh-2-0-a-new-era-of-data-governance/</link>
<pubDate>Thu, 08 Feb 2024 23:27:40 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/introducing-data-mesh-2-0-a-new-era-of-data-governance/</comments>
<description>
&lt;p&gt;Представляем data mesh 2.0: Новая эра управления данными&lt;br /&gt;
Вступление: Почему data mesh актуален?&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-35.png" width="1400" height="564" alt="" /&gt;
&lt;/div&gt;
&lt;p&gt;Оригинал:&lt;br /&gt;
&lt;a href="https://medium.com/capital-one-tech/introducing-data-mesh-2-0-a-new-era-of-data-governance-27170c7a75cb"&gt;https://medium.com/capital-one-tech/introducing-data-mesh-2-0-a-new-era-of-data-governance-27170c7a75cb&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href="https://a.gavrilov.info/data/posts/Data%20Mesh%202.0%20Revolutionizing%20Data%20Governance%20%7C%20Capital%20One%20%7C%20Capital%20One%20Tech.pdf"&gt;PDF&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;В мире Big Data организация должна уделять внимание двум основным аспектам для эффективного использования данных:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Легкость управления данными: Масштабируемое хранение, вычисления, обнаружение и слои предоставления как для аналитических данных, так и для метаданных, чтобы “преимущество масштаба” реализовалось как в плане затрат, так и в производительности, при этом стандартизация и управление становятся более простыми.&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;Доверие к данным: Также требуется объединение аспекта обработки данных с децентрализованным доменным или институциональным знанием для повышения качества и последующей авторитетности/доверительности данных.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Основная цель обработки аналитических данных состоит в создании новых инсайтов, которые информируют о важных бизнес-решениях. Это происходит только тогда, когда высококачественные данные легко доступны для потребления соответствующими пользователями, как людьми, так и машинами. Чем выше качество и скорость потребления, тем выше шанс роста доходов.&lt;/p&gt;
&lt;p&gt;Растущая потребность в Data Mesh:&lt;br /&gt;
Озера данных предоставляют организациям дешевую платформу хранения для хранения больших объемов полиглотных данных, что начало эру серии распределенных инструментов обработки данных и аналитики для работы с этими данными. Но вскоре они превратились в болота данных — место сброса данных для различных доменов/LOBs с неясным видением потребностей потребления и отсутствием владения и ограничений в отношении дублирования.&lt;/p&gt;
&lt;p&gt;Это в конечном итоге привело к серьезным проблемам с:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Недостатком качества данных и надежности (авторитетный vs неавторитетный источник правды)&lt;/li&gt;
&lt;li&gt;Плохим управлением метаданных (регистрация и поиск) и обнаружимостью&lt;/li&gt;
&lt;li&gt;Отсутствием управления и стандартизации (низкая точность как данных, так и метаданных)&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;И парадигма Data Mesh была представлена для решения этого нового набора проблем в мире озера данных.&lt;/p&gt;
&lt;p&gt;Что такое Data Mesh?&lt;br /&gt;
Data Mesh — это подход для перехода от монолитного озера данных к распределенной экосистеме данных с децентрализованным обработкой данных и управлением. Он предлагает четыре принципа для достижения обещания масштаба, обеспечивая при этом гарантии качества и целостности, необходимые для использования данных.&lt;/p&gt;
&lt;p&gt;Data Mesh предполагает, что каждый бизнес-домен несет ответственность за размещение, подготовку и предоставление своих данных своему собственному домену и более широкой аудитории. Это позволяет гибким и автономным командам по работе с данными создавать и управлять своими собственными продуктами данных, способствуя владению и ответственности за данные.&lt;/p&gt;
&lt;p&gt;Парадигма Data Mesh основана на четырех принципах:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Владение доменом&lt;br /&gt;
Владение доменом говорит о децентрализации и распределении ответственности между людьми, находящимися ближе к данным, чтобы поддерживать непрерывные изменения и масштабируемость, сделав бизнес-домен ограниченным контекстом для владения данными.&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;Данные как продукт&lt;br /&gt;
Этот принцип направлен на снижение трения и затрат на обнаружение, понимание, доверие и, в конечном итоге, использование качественных данных. Владельцы продукта данных в домене должны глубоко понимать, кто пользователи данных, как они используют данные и какие методы они предпочитают для их использования. Продукт данных, состоящий из кода, данных и метаданных, а также инфраструктуры, является архитектурным квантом архитектуры Data Mesh. &lt;a href="https://www.oreilly.com/library/view/building-evolutionary-architectures/9781491986356/ch04.html"&gt;https://www.oreilly.com/library/view/building-evolutionary-architectures/9781491986356/ch04.html&lt;/a&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="3"&gt;
&lt;li&gt;Платформа самообслуживания данных&lt;br /&gt;
Инфраструктура самообслуживания данных как платформа позволяет командам домена легко владеть своими продуктами данных, создавая высокоуровневую абстракцию инфраструктуры, которая устраняет сложность и трение при предоставлении и управлении жизненным циклом продуктов данных.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Таким образом, платформа самообслуживания данных должна иметь инструменты, которые поддерживают рабочий процесс разработки продукта данных в домене по созданию, поддержке и запуску продуктов данных с меньшим специализированным знанием, чем это предполагают существующие технологии обработки данных. Однако это не так просто учитывая разнообразие существующих технологий платформ данных на сегодняшний день. Например, одна команда домена может разворачивать свои службы в виде контейнеров Docker, а платформа доставки использует Kubernetes для их оркестрации, тогда как соседний продукт данных может запускать свой код конвейера в виде задач Spark на кластере Databricks.&lt;/p&gt;
&lt;p&gt;Федеративное вычислительное управление&lt;br /&gt;
Data mesh следует архитектуре распределенной системы, где существует коллекция независимых продуктов данных, сосуществующих бок о бок, но с независимым жизненным циклом, созданных и развернутых, вероятно, независимыми командами.&lt;br /&gt;
Однако, чтобы получить ценность в виде данных более высокого порядка, инсайтов или машинного интеллекта, необходимо, чтобы эти независимые продукты данных взаимодействовали между собой; чтобы можно было их коррелировать, создавать объединения, находить пересечения или выполнять другие операции с графами или множествами с масштабированием.&lt;br /&gt;
Таким образом, реализация data mesh требует модели управления, которая принимает децентрализацию и самосуверенитет домена, создавая и придерживаясь набора глобальных правил (правил, применяемых ко всем продуктам данных и их интерфейсам) для успешной взаимосовместимости и автоматического выполнения решений об управлении платформой — федеративного вычислительного управления.&lt;br /&gt;
Основные элементы принципов data mesh&lt;br /&gt;
В общем, согласно принципам data mesh:&lt;br /&gt;
Продукт данных является архитектурным квантом разработки концепции, владения, производства, предоставления и управления аналитическими данными.&lt;br /&gt;
Продукт данных представляет собой композицию всех компонентов для предоставления данных — код, данные и метаданные и инфраструктура — все в ограниченном контексте домена.&lt;br /&gt;
Таким образом, помимо определения и управления своими продуктами данных, каждый домен также должен поддерживать собственную инфраструктуру для создания и предоставления этих продуктов данных, соблюдая набор глобальных правил управления для обеспечения взаимодействия продуктов данных.&lt;br /&gt;
Подробное обсуждение принципов и архитектуры можно найти здесь. &lt;a href="https://martinfowler.com/articles/data-mesh-principles.html"&gt;https://martinfowler.com/articles/data-mesh-principles.html&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Проблемы data mesh&lt;br /&gt;
Хотя data mesh решает вопросы владения и управления аналитическими данными, представляя ограниченный контекст домена для продуктов данных, те же принципы создают новые проблемы:&lt;/p&gt;
&lt;p&gt;Поскольку каждый домен управляет своими собственными данными и продуктами данных, теряется преимущество обработки больших объемов данных в масштабе, что приводит к увеличению вычислительных и прочих операционных затрат для всех доменов в предприятии.&lt;/p&gt;
&lt;p&gt;Это вводит произвольную уникальность технологических решений, поскольку несколько доменов в организации пытаются независимо решить те же проблемы обработки данных; это также значительно увеличивает время на внедрение сетки данных.&lt;/p&gt;
&lt;p&gt;Для успешной реализации data mesh требуется высокий уровень технической зрелости, поскольку это зависит от наличия у доменных команд необходимых навыков для независимого управления своими продуктами данных. Это, в свою очередь, создает дополнительный спрос на специализированные ресурсы в уже специализированной области технологий (например, теперь каждому домену нужны отдельные эксперты по Spark и DevOps для построения их плана предоставления инфраструктуры данных).&lt;/p&gt;
&lt;p&gt;Data mesh полагается на то, что доменные команды берут на себя ответственность за свои продукты данных, соблюдая организационные стандарты управления для успешной взаимосовместимости. Это требует сильного сотрудничества и коммуникации, а также установления организационных стандартов управления данными для всех доменов. Однако самая большая проблема в управлении заключается не в создании правил, а в обеспечении их соблюдения. В мире data mesh соблюдение общего набора правил управления остается на усмотрение домена; даже самый базовый набор правил управления не обеспечивается общими средствами, что угрожает взаимосовместимости на уровне предприятия, даже если небольшой процент доменов не соблюдает базовые стандарты управления.&lt;/p&gt;
&lt;p&gt;Децентрализованный подход, как data mesh, может привести к несогласованности в практиках качества данных между разными командами, что может повлиять на общее качество данных в организации.&lt;/p&gt;
&lt;p&gt;Короче говоря, великолепные принципы, предложенные data mesh с целью создания более доверенной экосистемы данных, сталкиваются прежде всего с двумя аспектами:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Необходимость строить способности обработки данных и предоставления от начала до конца для каждого домена независимо, что значительно обременяет их по всем аспектам управления аналитическими данными и владения ими.&lt;/li&gt;
&lt;li&gt;Соблюдение общего набора правил управления остается на усмотрение каждого домена в предприятии; и с таким большим дополнительным бременем, добавленным к доменам, вероятность несоблюдения стандартов увеличивается значительно.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Представляем data mesh 2.0&lt;br /&gt;
Что, если мы заимствуем принципы data mesh и реализуем их через ряд самообслуживающих горизонтальных платформ для обработки данных, обработки и управления данными, управляемых централизованными командами?&lt;br /&gt;
Из мира data mesh:&lt;br /&gt;
Принятие идеи владения доменом продуктов данных, что повышает доверие к данным.&lt;br /&gt;
Включение продукта данных в логический ограниченный контекст, что дополнительно увеличивает владение и доверие.&lt;br /&gt;
Использование принципа самообслуживания для удовлетворения как общих, так и дополнительных потребностей в управлении у каждого домена, что значительно сокращает время выхода на рынок.&lt;br /&gt;
Совмещение этих принципов с принципами горизонтальных корпоративных платформ&lt;br /&gt;
Централизованные платформы для обработки данных — особенно управления метаданными (включая управление и правила качества данных), захвата данных, курирования, вычисления характеристик, создания и обслуживания продуктов данных — для получения преимуществ инноваций однократного применения и обработки на масштабе с более низким общим затратами и более простым управлением&lt;br /&gt;
Стандартизация в процессах и инструментах проектирования и выполнения времени выполнения для значительного увеличения взаимосовместимости продуктов данных при снижении затрат на выполнение&lt;br /&gt;
Горизонтальные платформы значительно упрощают трассировку и мониторинг, что дополнительно увеличивает доверие к данным. Использование данных для повышения качества данных и их надежности с помощью превентивных и реактивных функций уведомлений, легко реализуемых однократно на центральной платформе и использованных многими&lt;br /&gt;
Использование подхода Built by One Leveraged by Many (BOLM)&lt;br /&gt;
Сохранение преимуществ озера данных: В мире общедоступных облачных вычислений озеро данных представляет собой набор управляемых полиглотных папок, расположенных на облаке, с уже зрелой структурой управления, чтобы управлять этими папками в соответствии с их внутренними и внешними потребностями (финансы, аудит, соответствие, обмен данными с внешними организациями и т. д.). Все, что нужно организации, – это организовать эти папки в соответствии с ее потребностями.&lt;/p&gt;
&lt;p&gt;Чтобы data mesh 2.0 функционировал, горизонтальные корпоративные платформы должны обладать следующими возможностями:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Безболезненные и хорошо управляемые средства внутреннего исходного кода и совместной разработки, чтобы домены могли создавать собственные уникальные (или повторно используемые) возможности внутри платформы:
&lt;ul&gt;
  &lt;li&gt;Способность привести код домена и запустить его на платформе, при условии соблюдения управляющих механизмов, установленных платформой.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;Пошаговое управление: Для каждого аспекта обработки данных горизонтальная платформа требует базового набора управляющих механизмов, позволяя при этом добавлять дополнительные механизмы управления отдельными командами доменов (например, во время перемещения данных, проверки схемы, идентификации конфиденциальных элементов данных, проверки качества данных на уровне элементов и автоматизированных проверок токенизации, которые обязательны и предоставляются платформой по умолчанию). Команды доменов могут применять/добавлять дополнительные механизмы управления по мере необходимости в рамках платформы (например, проверки завершения публикации данных на уровне файлов и т. д.).&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="3"&gt;
&lt;li&gt;Горизонтальная платформа применяет корпоративную модель данных для кросс-доменных составных продуктов данных, в то время как домены имеют гибкость добавлять дополнительные сущности и атрибуты к этим продуктам данных по мере необходимости (без изменения ключей продуктов данных).&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="4"&gt;
&lt;li&gt;Домены имеют право публиковать наборы данных за пределами мира продуктов данных, при условии, что эти данные недоступны за пределами домена для потребления и соответствуют базовому управлению публикацией данных, установленному централизованными платформами.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Прием будущего: Обещание data mesh 2.0 и централизованных платформ&lt;br /&gt;
Переход от децентрализованного управления данными к инновационному data mesh 2.0 представляет собой трансформационный скачок в мире управления данными. Принятие принципов, таких как владение доменом, продукты данных, инфраструктура самообслуживания и федеративное вычислительное управление, позволяет организациям добиться большего доверия, качества и масштабируемости в своих экосистемах данных.&lt;br /&gt;
По мере продвижения вперед, интеграция этих принципов с централизованными платформами предвещает многообещающее будущее, где данные могут быть эффективно использованы, заложив основу для прозрачного, доверенного и богатого данными ландшафта.&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.capitalone.com/tech/cloud/"&gt;https://www.capitalone.com/tech/cloud/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Изначально опубликовано на &lt;a href="https://www.capitalone.com."&gt;https://www.capitalone.com.&lt;/a&gt;&lt;br /&gt;
Автор: Арья Басу, Архитектор данных, Банковская архитектура. Арья является архитектором данных с опытом более двух десятилетий в области данных и облака. В настоящее время он работает в команде Банковской архитектуры, фокусируясь на архитектуре данных.&lt;br /&gt;
ЗАЯВЛЕНИЕ О РАЗГЛАШЕНИИ: © 2024 Capital One. Мнения принадлежат индивидуальному автору. Если не указано иное в этом сообщении, Capital One не связана и не одобряет ни одну из упомянутых компаний. Все товарные знаки и другая интеллектуальная собственность, использованные или отображаемые, являются собственностью их соответствующих владельцев. Capital One не несет ответственности за содержание или политику конфиденциальности связанных сторон сайтов.&lt;/p&gt;
</description>
</item>

<item>
<title>Data Mesh в масштабе: Интеграция семантического уровня в крупномасштабных системах</title>
<guid isPermaLink="false">110</guid>
<link>https://gavrilov.info/all/data-mesh-v-masshtabe-integraciya-semanticheskogo-urovnya-v-krup/</link>
<pubDate>Sun, 28 Jan 2024 21:53:56 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/data-mesh-v-masshtabe-integraciya-semanticheskogo-urovnya-v-krup/</comments>
<description>
&lt;p&gt;Оригинал: &lt;a href="https://medium.com/oolooroo/data-mesh-at-scale-integrating-semantic-layers-in-large-scale-systems-8bd1562b0fea"&gt;https://medium.com/oolooroo/data-mesh-at-scale-integrating-semantic-layers-in-large-scale-systems-8bd1562b0fea&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Введение&lt;/b&gt;&lt;br /&gt;
В стремительно развивающейся области архитектуры данных поиск систем, которые были бы масштабируемыми и эффективными, привел к появлению инновационных концепций и фреймворков. Среди них Data Mesh приобрел популярность как парадигма, обещающая революцию в обработке сложных данных в крупных организациях. Однако масштабируемость и эффективность Data Mesh в реальных приложениях в значительной степени зависят от его интеграции с другими технологическими компонентами, в первую очередь с семантическим уровнем.&lt;br /&gt;
Data Mesh, с его децентрализованным, ориентированным на домены подходом, предлагает убедительное решение для преодоления вызовов, созданных увеличивающимся объемом, скоростью и разнообразием данных в современных предприятиях. Его цель – демократизировать данные, распределяя владение и контроль доменно-специфическим командам, тем самым повышая гибкость и отзывчивость. Тем не менее, несмотря на все перспективы Data Mesh, его масштабируемость и функциональность на корпоративном уровне сталкиваются с существенными трудностями, в основном связанными с обеспечением когерентности, интероперабельности и эффективного управления данными в различных доменах.&lt;br /&gt;
Вступает семантический уровень – технология, разработанная для наложения на системы данных, предоставляя унифицированный, согласованный вид данных по всей организации. Семантический уровень играет ключевую роль в переводе сложных данных в формат, понятный и используемый для различных заинтересованных сторон, независимо от их технической экспертизы. Он служит ключевым элементом, который обеспечивает эффективную работу Data Mesh в масштабе, решая ключевые проблемы, такие как обнаружение данных, управление и интеграция.&lt;br /&gt;
Цель этой статьи – исследовать симбиотическое взаимодействие между Data Mesh и семантическим уровнем, с акцентом на том, как последний делает первый успешным в условиях крупномасштабных сред. Разбирая механику этой интеграции, статья прояснит трансформационный потенциал сочетания Data Mesh с семантическим уровнем, обрисовывая пути использования полного потенциала данных в корпоративной среде.&lt;br /&gt;
В следующих разделах будет более подробно рассмотрено Data Mesh и семантический уровень, их интеграция, вызовы и будущие перспективы этого сотрудничества в области архитектуры данных. Цель – предоставить всеобъемлющее понимание того, почему и как семантический уровень является ключевым элементом для эффективной работы Data Mesh в масштабе.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-23.png" width="507" height="509" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Scaling the Heights of Data Mesh: A Semantic Layer Expedition&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;&lt;b&gt;Понимание Data Mesh&lt;/b&gt;&lt;br /&gt;
Определение и принципы Data Mesh&lt;br /&gt;
Data Mesh представляет собой новаторский подход в архитектуре данных, который фундаментально переосмысливает управление и использование данных в крупных организациях. Он базируется на четырех основных принципах:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Децентрализованная собственность данных, ориентированная на домены: Data Mesh выступает за перенос владения данными к командам, специализирующимся в определенной области, предоставляя им возможность управлять данными и контролировать их. Эта децентрализация дает командам автономию в обработке своих данных, выстраивая управление данными в соответствии с экспертизой домена.&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;Данные как продукт: В этой концепции данные рассматриваются как продукт, с акцентом на потребностях пользователя и качестве. Данные управляются командами, которые владеют ими, на протяжении всего их жизненного цикла, обеспечивая их доступность, надежность и пригодность к использованию.&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="3"&gt;
&lt;li&gt;Инфраструктура данных как сервис: Data Mesh подчеркивает важность предоставления командам самообслуживаемой инфраструктуры данных. Этот подход позволяет командам получать доступ, обрабатывать и анализировать данные без сильной зависимости от центральных ИТ- или данных-команд, способствуя гибкости и скорости.&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="4"&gt;
&lt;li&gt;Федеративное вычислительное управление: Этот принцип гарантирует, что, несмотря на децентрализацию данных, управление не поддается компромиссам. Он призывает к федеративному подходу к управлению, сбалансированному между локальной автономией и глобальной согласованностью.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Трудности масштабирования Data Mesh&lt;br /&gt;
Несмотря на трансформационный потенциал Data Mesh, его масштабирование в крупных организациях сталкивается с несколькими трудностями:&lt;/p&gt;
&lt;ol start="1"&gt;
&lt;li&gt;Интероперабельность и интеграция: Обеспечение интероперабельности и интеграции данных в различных децентрализованных доменах может быть сложным. Существует риск создания сило данных, что может привести к несогласованности и неэффективности.&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="2"&gt;
&lt;li&gt;Управление и стандартизация: Сбалансировать децентрализованный контроль с эффективным управлением и стандартизацией сложно. Требуется тонкий подход для обеспечения качества данных и соблюдения стандартов во всех доменах.&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="3"&gt;
&lt;li&gt;Техническая сложность: Архитектурный переход к Data Mesh включает значительные изменения в существующие инфраструктуры данных и процессы. Этот сдвиг может быть технически и организационно сложным, требуя новых навыков и подходов.&lt;/li&gt;
&lt;/ol&gt;
&lt;ol start="4"&gt;
&lt;li&gt;Культурные и организационные изменения: Принятие Data Mesh часто предполагает изменение корпоративной культуры. Переход от централизованной к децентрализованной модели требует согласия на всех уровнях организации и изменения в том, как команды взаимодействуют с данными.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;В заключение, Data Mesh, несмотря на свои перспективы, требует внимательного внимания и стратегического планирования для преодоления своих врожденных проблем масштабирования. Интеграция семантического уровня, как исследуется в следующих разделах, выступает в роли ключевого активатора для решения этих проблем и разблокировки полного потенциала Data Mesh в масштабе.&lt;/p&gt;
&lt;p&gt;...&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Исследование Семантического Уровня&lt;/b&gt;&lt;br /&gt;
Определение и Цель Семантического Уровня&lt;br /&gt;
Семантический уровень является ключевым компонентом в современной архитектуре данных, действуя как мост между исходными данными и конечными пользователями, которым необходимо интерпретировать и использовать эти данные. Его цель – предоставить последовательный, унифицированный и понятный взгляд на данные по всей организации, независимо от сложностей или технических разнородностей в их основе.&lt;br /&gt;
Смысл семантического уровня заключается в абстрагировании технических деталей хранения данных, их форматов и схем, предоставляя пользователям упрощенный, ориентированный на бизнес взгляд на данные. Эта абстракция позволяет пользователям, включая тех, кто не обладает технической экспертизой, легко взаимодействовать с данными, анализировать и извлекать из них инсайты.&lt;br /&gt;
Основные Характеристики и Функции Семантического Уровня&lt;br /&gt;
Абстрагирование данных: Семантический уровень абстрагирует сложности основных структур данных, представляя упрощенный, ориентированный на бизнес взгляд. Эта абстракция позволяет пользователям фокусироваться на анализе данных, а не на сложностях управления ими.&lt;br /&gt;
Согласованная интерпретация данных: Он обеспечивает согласованную интерпретацию данных в организации путем стандартизации определений, метрик и KPI. Эта согласованность критична для поддержания целостности и надежности данных.&lt;br /&gt;
Доступность и Удобство использования: Предоставляя более доступный интерфейс, семантический уровень способствует широкому использованию данных в организации, позволяя неспециалистам в области технологий использовать данные для принятия решений.&lt;br /&gt;
Интеграция и Интероперабельность: Семантический уровень облегчает интеграцию данных из различных источников и форматов, способствуя интероперабельности и уменьшая риски образования сило данных.&lt;br /&gt;
Улучшенное Управление и Безопасность: Он поддерживает управление данными, обеспечивая контроль доступа, стандарты конфиденциальности данных и требования к соответствию, гарантируя ответственное и безопасное использование данных.&lt;br /&gt;
Оптимизация запросов и производительность: Для эффективной работы семантический уровень должен оптимизировать запросы, чтобы минимизировать нагрузку на основные источники данных и улучшить время ответа на запросы конечных пользователей.&lt;br /&gt;
Управление метаданными: Семантический уровень должен эффективно управлять метаданными, предоставляя контекст и смысл данных, что критично для понимания линейности данных.&lt;br /&gt;
Семантический уровень играет ключевую роль в преобразовании сырых, сложных данных в действенные идеи. Его интеграция в архитектуры Data Mesh, как обсуждается в следующем разделе, является ключевым моментом для преодоления проблем масштабирования и сложности, связанных с децентрализованными средами данных.&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;img src="https://gavrilov.info/pictures/image-24.png" width="842" height="492" alt="" /&gt;
&lt;div class="e2-text-caption"&gt;Semantic Layer Architecure&lt;/div&gt;
&lt;/div&gt;
&lt;p&gt;&lt;b&gt;Интеграция Семантического Уровня в Data Mesh&lt;/b&gt;&lt;br /&gt;
Преодоление Проблем Масштабирования в Data Mesh&lt;br /&gt;
Интеграция семантического уровня в архитектуру Data Mesh играет ключевую роль в преодолении проблем масштабирования. Data Mesh, своей природой, включает в себя несколько децентрализованных доменов, каждый из которых имеет свои модели данных и структуры. С увеличением числа этих доменов растет сложность управления и интеграции данных в организации. Семантический уровень выступает в роли унифицирующей силы, предоставляя последовательное, охватывающее всю организацию толкование данных, независимо от их источника или формата.&lt;br /&gt;
Повышение Обнаружимости и Интероперабельности Данных&lt;br /&gt;
В среде Data Mesh семантический уровень помогает сделать данные легко обнаруживаемыми и доступными в различных доменах. Он предоставляет общий язык для данных, преодолевая различия в моделях доменов и делая возможным и эффективным анализ данных между доменами.&lt;br /&gt;
Интероперабельность, обеспечиваемая семантическим уровнем, гарантирует, что данные из различных доменов могут интегрироваться без проблем, уменьшая риск образования сило данных и несогласованной аналитики.&lt;br /&gt;
Улучшение Управления Данными&lt;br /&gt;
Управление данными в децентрализованной среде, такой как Data Mesh, может быть сложным. Семантический уровень способствует управлению, обеспечивая согласованные определения данных, стандарты конфиденциальности и контроль доступа во всех доменах.&lt;br /&gt;
Этот уровень также играет ключевую роль в управлении соблюдением, так как он может отслеживать и контролировать, как данные используются и распространяются внутри организации, обеспечивая соблюдение законодательных и регуляторных стандартов.&lt;br /&gt;
Содействие Гибкому Управлению Данными&lt;br /&gt;
Семантический уровень дает командам доменов возможность эффективнее управлять своими данными, упрощая сложности интеграции и интерпретации данных. Эта гибкость критична для бизнеса, который должен быстро реагировать на изменения на рынке или внутренние требования.&lt;br /&gt;
Балансировка Децентрализации с Согласованностью&lt;br /&gt;
Интеграция семантического уровня в Data Mesh находит баланс между децентрализацией и согласованностью. В то время как Data Mesh позволяет доменам работать независимо, семантический уровень обеспечивает унифицированное понимание и подход к данным в этих доменах. Этот баланс является ключом к достижению масштабируемости и эффективности в условиях крупномасштабных сред данных.&lt;br /&gt;
В заключение, интеграция семантического уровня в Data Mesh решает ключевые проблемы масштабирования, интероперабельности и управления. Он выступает в роли катализатора, который не только обеспечивает эффективную работу Data Mesh в масштабе, но также усиливает его общую ценность в управлении сложными данными.&lt;br /&gt;
Проблемы и Соображения при Интеграции Семантического Уровня в Data Mesh&lt;br /&gt;
Хотя интеграция семантического уровня в Data Mesh предлагает значительные преимущества, она также представляет уникальные проблемы и соображения. Эффективное их решение является ключом к раскрытию полного потенциала этой интеграции.&lt;br /&gt;
Сложности в Реализации:&lt;br /&gt;
Техническая сложность: Разработка и внедрение семантического уровня, который эффективно взаимодействует с несколькими децентрализованными доменами данных, может быть технически сложной задачей. Требуется глубокое понимание как архитектуры данных, так и бизнес-контекста.&lt;br /&gt;
Трудности Интеграции: Бесшовная интеграция семантического уровня с существующей инфраструктурой данных, особенно в организациях с устаревшими системами, может быть сложной. Этот процесс часто требует значительных модификаций существующих конвейеров данных и решений для хранения данных.&lt;br /&gt;
Организационные и Культурные Асп&lt;/p&gt;
&lt;p&gt;екты&lt;br /&gt;
Управление Изменениями: Внедрение семантического уровня в рамках структуры Data Mesh включает значительные организационные изменения. Выработка культуры, которая принимает этот новый подход к управлению данными, является ключевым фактором успеха.&lt;br /&gt;
Навыки и Обучение: Внедрение семантического уровня требует специализированных навыков. Организации должны инвестировать в обучение своего персонала или привлекать новые кадры для эффективного управления и использования этого уровня.&lt;br /&gt;
Поддержание Качества и Согласованности Данных&lt;br /&gt;
Обеспечение согласованного качества данных и их определений во всех доменах становится более сложным с введением семантического уровня. Требуется непрерывный мониторинг и управление для поддержания целостности и полезности данных.&lt;br /&gt;
Балансировка Гибкости и Стандартизации&lt;br /&gt;
Хотя семантический уровень способствует стандартизации интерпретации данных, важно уравновешивать это с гибкостью, необходимой для различных доменов. Нахождение правильного баланса критично для того, чтобы семантический уровень не стал узким местом или не помешал инновациям, специфичным для домена.&lt;br /&gt;
Масштабируемость и Оптимизация Производительности&lt;br /&gt;
По мере роста объема данных важно обеспечить эффективное масштабирование семантического уровня, сохраняя при этом высокую производительность. Это требует тщательного планирования и непрерывной оптимизации.&lt;br /&gt;
Управление и Соблюдение Законов&lt;br /&gt;
Внедрение семантического уровня включает в себя решение сложных проблем управления и соблюдения законов, особенно в регулируемых отраслях. Гарантировать, что семантический уровень соответствует всем соответствующим законам и нормативам, является важным.&lt;br /&gt;
Для решения этих проблем и учета соображений организации должны принять стратегический и всесторонний подход к интеграции семантического уровня в их архитектуру Data Mesh. Ключ к успеху заключается в тщательном планировании, понимании уникальных потребностей организации и непрерывных итерациях и усовершенствования.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Заключение и Перспективы&lt;/b&gt;&lt;br /&gt;
Сводка Основных Находок&lt;br /&gt;
В данной статье была рассмотрена ключевая роль семантического уровня в увеличении масштабируемости и эффективности архитектур Data Mesh. Интеграция семантического уровня решает фундаментальные проблемы в рамках Data Mesh, особенно в областях масштабируемости, интероперабельности и управления, предоставляя унифицированный, последовательный взгляд на данные в разнообразных доменах.&lt;br /&gt;
Значимость Семантического Уровня в Data Mesh&lt;br /&gt;
Семантический уровень выступает как существенный активатор для Data Mesh, особенно в масштабных и сложных средах данных. Он упрощает доступ и анализ данных, обеспечивает согласованную интерпретацию данных и способствует лучшему управлению и соблюдению. Эти факторы являются ключевыми для раскрытия полного потенциала Data Mesh, позволяя организациям более эффективно и отзывчиво использовать свои данные.&lt;br /&gt;
Проблемы и Стратегические Соображения&lt;br /&gt;
Несмотря на значительные выгоды, интеграция семантического уровня в Data Mesh не обходится без своих трудностей. Среди них – техническая сложность, необходимость специализированных навыков, поддержание качества данных и поиск баланса между стандартизацией и гибкостью. Решение этих проблем требует стратегического подхода, опирающегося на крепкое руководство, эффективное управление изменениями и непрерывную адаптацию и обучение.&lt;br /&gt;
Будущие Последствия и Развитие&lt;br /&gt;
В перспективе интеграция семантических уровней в архитектуры Data Mesh собирается сыграть ключевую роль в эволюции практик управления данными. По мере развития технологий мы можем ожидать:&lt;br /&gt;
Технологические Достижения: Дальнейшие разработки в области искусственного интеллекта и машинного обучения могут усовершенствовать возможности семантических уровней, делая их более динамичными и интеллектуальными в обработке сложностей данных.&lt;br /&gt;
Более Широкое Принятие и Созревание: По мере того как больше организаций применяют эту интеграцию, лучшие практики и методологии, вероятно, будут созревать, предоставляя более стандартизированные подходы к внедрению.&lt;br /&gt;
Влияние на Культуру Данных: Ожидается, что эта интеграция повлияет на организационные культуры данных, акцентируя более коллективный и демократизированный подход к управлению данными.&lt;br /&gt;
Инновации в Управлении Данными: Непрерывное развитие семантических уровней в архитектурах Data Mesh, вероятно, стимулирует инновации, предлагая новые способы управления и извлечения ценности из данных.&lt;br /&gt;
В заключение, интеграция семантического уровня в Data Mesh представляет собой значительный прогресс в области архитектуры данных. Он обещает сделать Data Mesh более масштабируемым, управляемым и эффективным, особенно в сложных и богатых данными средах. По мере того как эта область продолжает развиваться, она несомненно представит новые вызовы и возможности, но потенциальные выгоды для организаций в более эффективном использовании их данных являются существенными и убедительными.&lt;/p&gt;
</description>
</item>

<item>
<title>Немного про Data Mesh</title>
<guid isPermaLink="false">99</guid>
<link>https://gavrilov.info/all/nemnogo-pro-data-mesh/</link>
<pubDate>Thu, 14 Dec 2023 21:48:28 +0300</pubDate>
<author></author>
<comments>https://gavrilov.info/all/nemnogo-pro-data-mesh/</comments>
<description>
&lt;p&gt;&lt;a href="https://a.gavrilov.info/data/posts/What%20Is%20Data%20Mesh%3F.%20Intro%20%7C%20by%20Alessio%20Cesana%20%7C%20Medium.pdf"&gt;What Is Data Mesh? &lt;/a&gt;&lt;/p&gt;
&lt;p&gt;А еще недавно вышла книга на русском про дата мех (мех как то пушистее звучит)&lt;/p&gt;
&lt;div class="e2-text-picture"&gt;
&lt;div class="fotorama" data-width="1920" data-ratio="0.75"&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_8425.jpg" width="1920" height="2560" alt="" /&gt;
&lt;img src="https://gavrilov.info/pictures/IMG_8426.jpeg" width="2560" height="3413.3333333333" alt="" /&gt;
&lt;/div&gt;
&lt;/div&gt;
</description>
</item>


</channel>
</rss>