SEO workflow pro obří crawly Screaming Frogem

Před lety jsem na velké crawly používal BigQuery + Looker Studio, ale byl to šílený opruz.
.quitCREATE TABLE internal_all AS FROM 'internal_all.csv';
CREATE TABLE internal_html AS FROM 'internal_html.csv';
CREATE TABLE external_all AS FROM 'external_all.csv';
CREATE TABLE external_html AS FROM 'external_html.csv';
CREATE TABLE all_inlinks AS FROM 'all_inlinks.csv';
CREATE TABLE all_outlinks AS FROM 'all_outlinks.csv';
CREATE TABLE javascript_all AS FROM 'javascript_all.csv';Tedy například:
Poradí vám článek Close the Loop: Faster Data Pipelines with MCP, DuckDB & AI
Na základě článku https://motherduck.com/blog/faster-data-pipelines-with-mcp-duckdb-ai/ bych si chtěl zprovoznit MCP server, přes který bych se mohl dotazovat na lokálně uložená data v DuckDb databázi. Pro dotazování použiju Claude Destop. Pomůžeš mi to zprovoznit?
Pro odkazy na externí 4xx se zneguje Destination LIKE 'https://www.example.com/%'.
Příklad z internal_html vybere určité stránky a pomocí JOIN k nim získá odkazy z all_inlinks. Hodí se pro všechny případy, kdy je potřeba získat odkazy na něco a v samotné tabulce all_inlinks nejsou data potřebná pro výběr řádků.