Perron is a static site generator for Ruby on Rails. Build your static sites with Rails. Deploy them anywhere.
I found a stranger texting my 12-year-old on a 'kid-safe' Gabb phone. Parental controls are broken.
Bon, faut qu'on parle un peu du moteur de recherche de mon site. Ceux qui l'ont déjà utilisé savent de quoi je parle : c'était pas terrible. Enfin, « pas terrible » j'suis gentil. C'est un espèce d'overlay avec des résultats certes fiables mais c'était vraime…
Durante años, la web ha tenido una especie de «capa de servicio» para máquinas: archivos simples, aburridos y tremendamente útiles que viven en la raíz del dominio y que sirven para que los robots entiendan cómo tratar un sitio. El robots.txt, por ejemplo, no…
Si no quieres plugins para hacer privada tu web, para que haya que acceder por el login de WordPress para ver el sitio, aquí tienes un pedazo de código de copiar y pegar que tiene de todo y más …

Aprende qué es el SEO debugging y cómo hacerlo en tu Mac para detectar errores, mejorar tu visibilidad en Google y optimizar tu web al máximo.
A Django plugin that adds support for sitemap.xml and robots.txt
A Django plugin that adds support for sitemap.xml and robots.txt
Add your description here
A Django plugin that adds support for sitemap.xml and robots.txt
Hi HN!tldr: openground lets you give controlled access to documentation to AI agents. Everything happens on-device.I'm sharing my initial release of openground, an opensource and completely on-device RAG tool that let's you give controlled documentation acces…
SEO analysis CLI tool: analyze websites, compare competitors, extract keywords, and get AI-powered optimization insights. Single page or sitemap audits. Runs via npx - zero installation. - BrunoQua...
AI, agents, and other robots frequently get domain details wrong. The AI Domain Data Standard fixes this by letting domains publish a canonical JSON profile at /.well-known/domain-profile.json that AI tools read directly.We've just completed the full tooling …
Built this because I got tired of ChatGPT/Claude refusing to visit websites when doing research.Crawls sitemaps, parses metadata files (robots.txt, humans.txt, llms.txt), detects tech stack with Wappalyzer, then generates summaries using either AWS Bedrock or…