{"id":7350,"date":"2025-12-02T09:00:00","date_gmt":"2025-12-02T08:00:00","guid":{"rendered":"https:\/\/www.hostingtg.com\/blog\/?p=7350"},"modified":"2025-12-01T15:43:05","modified_gmt":"2025-12-01T14:43:05","slug":"xfs","status":"publish","type":"post","link":"https:\/\/www.hostingtg.com\/blog\/xfs\/","title":{"rendered":"XFS en la vida real: cu\u00e1ndo usarlo, c\u00f3mo montarlo bien y qu\u00e9 evitar"},"content":{"rendered":"\n<h2 class=\"wp-block-heading\">Qu\u00e9 es XFS y por qu\u00e9 se usa tanto en servidores<\/h2>\n\n\n\n<p>Si te dedicas a mover datos de verdad \u2014terabytes que crecen todas las semanas, jobs en paralelo y servicios peleando por IO\u2014 XFS es ese <em>martillo grande<\/em> que quieres cuando el volumen y la concurrencia importan m\u00e1s que la pirotecnia de features. Naci\u00f3 para m\u00e1quinas serias y, con los a\u00f1os, ha ido puliendo justo lo que marca la diferencia en producci\u00f3n: latencia estable bajo presi\u00f3n, journaling predecible y una arquitectura pensada para aprovechar CPUs m\u00faltiples sin que el FS se convierta en un cuello de botella.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>Descubre como <strong><a href=\"https:\/\/www.hostingtg.com\/blog\/linux-6-18\/\">Linux 6.18 utiliza XFS<\/a><\/strong><\/p>\n<\/blockquote>\n\n\n\n<p>La idea clave: XFS organiza el espacio en <strong>extents<\/strong> y divide el sistema de archivos en <strong>allocation groups (AGs)<\/strong>, que permiten que distintos hilos trabajen en paralelo sin pisarse. Esa separaci\u00f3n, junto con \u00e1rboles B y t\u00e9cnicas como la <strong>delayed allocation<\/strong>, mantiene controlado el coste de metadatos cuando hay mucha concurrencia. \u00bfQu\u00e9 significa eso en la pr\u00e1ctica? Menos \u201csorpresas\u201d cuando deniegas un fichero grande, creas miles de objetos a la vez o lanzas un pipeline que satura los discos. En mi experiencia, cuando un equipo me pregunta por qu\u00e9 \u201cla m\u00e1quina se siente suave\u201d durante picos, <a href=\"https:\/\/es.wikipedia.org\/wiki\/XFS\" target=\"_blank\" rel=\"noopener\">casi siempre hay XFS por debajo<\/a>.<\/p>\n\n\n\n<p>Frente a ext4 o Btrfs, XFS no busca serlo todo para todos; va a lo suyo: <strong>thruput<\/strong> sostenido y operaciones masivas de lectura\/escritura con orden. Para redondear, su filosof\u00eda \u201cinfra primero\u201d es muy pragm\u00e1tica: <strong>crecer online<\/strong> es trivial, <strong>cuotas de proyecto<\/strong> para limitar por carpeta\/servicio sin hacks, y <strong>reflink<\/strong> (copy-on-write) para clonar ficheros al instante sin duplicar espacio. Cuando prob\u00e9 reflink en plantillas de m\u00e1quinas y artefactos de build, el ahorro de tiempo y espacio fue inmediato.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Arquitectura en dos minutos: extents, AGs y journaling<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Extents<\/strong>: en lugar de gestionar bloques sueltos, XFS agrupa rangos contiguos. Esto reduce fragmentaci\u00f3n y el coste de metadatos en ficheros grandes.<\/li>\n\n\n\n<li><strong>Allocation groups<\/strong>: particionan el FS en zonas semi-independientes; m\u00faltiples CPUs pueden asignar\/actualizar metadatos en paralelo. Esa es la magia que se nota en E\/S concurrente.<\/li>\n\n\n\n<li><strong>Journaling de metadatos<\/strong>: el log registra cambios de estructura; la pol\u00edtica es sobria y estable, lo que se traduce en tiempos consistentes y recuperaci\u00f3n fiable si hay corte.<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">Cu\u00e1ndo XFS brilla de verdad<\/h2>\n\n\n\n<p>Aqu\u00ed es donde XFS me ha pagado las facturas una y otra vez: <strong>ficheros grandes + E\/S paralela<\/strong>. Piensa en:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Bases de datos<\/strong> (ficheros de datos y redo\/transaction logs) cuando el motor no exige un FS CoW.<\/li>\n\n\n\n<li><strong>Almacenes de logs<\/strong> que absorben r\u00e1fagas y rotaciones con multi-hilo.<\/li>\n\n\n\n<li><strong>Im\u00e1genes de VM y contenedores<\/strong>: creaci\u00f3n\/clonado, mantenimiento y compactaci\u00f3n con reflink para plantillas.<\/li>\n\n\n\n<li><strong>Backups y repositorios<\/strong> con escrituras concurrentes desde muchos agentes.<\/li>\n\n\n\n<li><strong>Procesamiento de datos\/big data<\/strong> con etapas que leen\/escriben artefactos gordos en paralelo.<\/li>\n<\/ul>\n\n\n\n<p>La <strong>latencia estable<\/strong> importa tanto como el ancho de banda. XFS evita picos de \u201ctail latency\u201d que, en la pr\u00e1ctica, son los que rompen SLAs cuando hay tormenta. Adem\u00e1s, su <strong>journal predecible<\/strong> reduce sorpresas en ciclos de flush; si combinamos esto con buen almacenamiento (NVMe\/RAID bien alineado), los resultados son consistentes. Como digo a menudo: <em>a las tres de la ma\u00f1ana agradeces que <code>xfs_repair<\/code> sea sobrio y fiable<\/em>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Preparar el terreno: discos, RAID y alineamiento<\/h2>\n\n\n\n<p>XFS es muy agradecido cuando describes bien el <strong>layout f\u00edsico<\/strong>. Tres reglas r\u00e1pidas:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Alinea<\/strong> con el stripe del RAID (sea mdadm o HW).<\/li>\n\n\n\n<li>En <strong>NVMe modernos<\/strong>, no fuerces par\u00e1metros \u201cporque s\u00ed\u201d; deja que el kernel y los defaults hagan su trabajo y <strong>mide<\/strong> antes de tunear.<\/li>\n\n\n\n<li><strong>TRIM<\/strong> en SSD\/NVMe: programa <code>fstrim<\/code>.<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading\">Stripe\/width y <code>mkfs.xfs<\/code><\/h3>\n\n\n\n<p>Cuando uses RAID por bandas, informa a <code>mkfs.xfs<\/code> del tama\u00f1o de <strong>stripe<\/strong> (S) y <strong>stripe width<\/strong> (W). Ejemplo con RAID 10 de 4 discos, 256 KiB por banda:<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code># Crear FS (ajusta \/dev\/md0 y tama\u00f1os a tu caso)\nmkfs.xfs -f -d su=256k,sw=2 -l size=1g \/dev\/md0\n# su = stripe unit (tama\u00f1o de banda)\n# sw = stripe width (n\u00ba de bandas que abarcan una escritura)\n<\/code><\/pre>\n\n\n\n<p>Para <strong>NVMe<\/strong> de un solo dispositivo, a menudo los <strong>defaults<\/strong> rinden mejor que forzar <code>logbsize<\/code> o <code>logbufs<\/code>. Mi pauta: empezar con defaults, correr un benchmark representativo (fio con colas\/IO depth realistas) y s\u00f3lo entonces tocar el log si hay evidencia.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Montaje sensato (SSD\/NVMe)<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Monta con <code>relatime<\/code> (es el est\u00e1ndar actual).<\/li>\n\n\n\n<li>Usa <code>noatime<\/code> solo si mediste beneficio real en tu carga.<\/li>\n\n\n\n<li>Programa TRIM semanal:<\/li>\n<\/ul>\n\n\n\n<pre class=\"wp-block-code\"><code># systemd timer ya lo hace en muchas distros, si no:\nsudo systemctl enable fstrim.timer\nsudo systemctl start fstrim.timer\n# o un cron semanal con: fstrim -av\n<\/code><\/pre>\n\n\n\n<h2 class=\"wp-block-heading\">Hands-on: crear, montar y crecer XFS en producci\u00f3n<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Formateo con reflink y cuotas de proyecto<\/h3>\n\n\n\n<p>Si tu caso clona mucho (plantillas, builds, artefactos), activa <strong>reflink<\/strong> al formatear. Y si compartes el FS entre equipos o pipelines, prepara <strong>cuotas de proyecto<\/strong> para l\u00edmites por carpeta.<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code># Reflink + quota de proyecto\nmkfs.xfs -f -m reflink=1 -n ftype=1 \/dev\/mapper\/vg_data-lv_xfs\n<\/code><\/pre>\n\n\n\n<p><code>ftype=1<\/code> asegura atributos de tipo de fichero compatibles con overlays. Tras el formateo:<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code># Montaje con cuotas de proyecto\nmkdir -p \/data\nmount -o prjquota,relatime \/dev\/mapper\/vg_data-lv_xfs \/data\n\n# \/etc\/fstab\n\/dev\/mapper\/vg_data-lv_xfs  \/data  xfs  defaults,prjquota,relatime  0  0\n<\/code><\/pre>\n\n\n\n<p>Configurar <strong>proyectos<\/strong> (cuotas por carpeta):<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code># Mapear ID de proyecto a carpeta\necho \"1001:\/data\/teamA\" | sudo tee -a \/etc\/projects\necho \"teamA:1001\"       | sudo tee -a \/etc\/projid\n\n# Crear carpeta y aplicar proyecto\nmkdir -p \/data\/teamA\nxfs_quota -x -c 'project -s teamA' \/data\n\n# Establecer l\u00edmite (ej. 500 GiB)\nxfs_quota -x -c 'limit -p bhard=500g teamA' \/data\n\n# Ver estado\nxfs_quota -x -c 'report -p' \/data\n<\/code><\/pre>\n\n\n\n<p>Montaje (<code>fstab<\/code>) y opciones t\u00edpicas<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>UUID=xxxx-xxxx \/data xfs relatime,prjquota 0 0\n# A\u00f1ade nofail si el FS no es cr\u00edtico para el arranque.\n<\/code><\/pre>\n\n\n\n<h3 class=\"wp-block-heading\">Crecimiento online con <code>xfs_growfs<\/code><\/h3>\n\n\n\n<p>Aqu\u00ed XFS saca pecho: a\u00f1ade espacio al LV y crece el FS <strong>sin desmontar<\/strong>.<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code># 1) Extiende el LV (LVM)\nlvextend -L +500G \/dev\/mapper\/vg_data-lv_xfs\n\n# 2) Crece XFS (montado)\nxfs_growfs \/data\n\n# 3) Confirmar\nxfs_info \/data\n<\/code><\/pre>\n\n\n\n<h3 class=\"wp-block-heading\">Desfragmentaci\u00f3n \u201cen caliente\u201d<\/h3>\n\n\n\n<p>Para cargas con mucha reescritura\/rotaci\u00f3n de ficheros grandes:<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>xfs_fsr -v \/data\n# O apuntar a un fichero\/directorio espec\u00edfico\nxfs_fsr -v \/data\/repos\/bigfile.img\n<\/code><\/pre>\n\n\n\n<h2 class=\"wp-block-heading\">Operaci\u00f3n a las 3 AM: herramientas que no fallan<\/h2>\n\n\n\n<p>Cuando algo huele raro, prefiero utilidades sobrias. Por eso digo: <em>a las tres de la ma\u00f1ana, mejor herramientas que no te dejen tirado<\/em>.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong><code>xfs_info<\/code><\/strong>: fotograf\u00eda r\u00e1pida de par\u00e1metros y layout (AGs, su\/sw, tama\u00f1o de log\u2026).<\/li>\n\n\n\n<li><strong><code>xfs_repair<\/code><\/strong>: reparaci\u00f3n de metadatos. \u00dasalo con cabeza: desmonta el FS; si puedes, trabaja sobre un clon\/snapshot.<\/li>\n\n\n\n<li><strong><code>xfs_metadump<\/code> + <code>xfs_mdrestore<\/code><\/strong>: para capturas de metadatos (\u00fatil en soporte).<\/li>\n\n\n\n<li><strong><code>xfsdump<\/code>\/<code>xfsrestore<\/code><\/strong>: copias a nivel de FS, con inventario detallado y opciones de granularidad.<\/li>\n\n\n\n<li><strong><code>xfs_quota<\/code><\/strong>: ya lo viste; imprescindible para multi-tenant.<\/li>\n<\/ul>\n\n\n\n<p>Ejemplo de chequeo r\u00e1pido (sin reparar) con <code>xfs_repair<\/code> en modo no destructivo:<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>umount \/data\nxfs_repair -n \/dev\/mapper\/vg_data-lv_xfs  # -n = no modifica, solo reporta\nmount \/data\n<\/code><\/pre>\n\n\n\n<p><strong>Checklist de salud<\/strong> que me ha evitado sustos:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><code>dmesg<\/code> limpio: busca mensajes de I\/O, timeout del controlador o advertencias de XFS.<\/li>\n\n\n\n<li><code>xfs_info<\/code> guardado en un runbook (saber c\u00f3mo fue creado el FS).<\/li>\n\n\n\n<li><code>smartctl<\/code>\/telemetr\u00eda de la cabina sin sectores pendientes ni throttling t\u00e9rmico.<\/li>\n\n\n\n<li><code>iostat -x<\/code> y <code>pidstat -d<\/code> durante carga para ver colas y qui\u00e9n empuja.<\/li>\n\n\n\n<li><code>fstrim -av<\/code> al d\u00eda si hay SSD\/NVMe.<\/li>\n<\/ol>\n\n\n\n<h2 class=\"wp-block-heading\">Limitaciones y anti-patrones<\/h2>\n\n\n\n<p>Nada es perfecto. XFS tiene bordes claros:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>No reduce tama\u00f1o (shrink)<\/strong>. Si te pasas aprovisionando, te toca migrar o recrear. Por eso repito: <em>dise\u00f1a con cabeza: mejor varios vol\u00famenes medianos que un mega-volumen inmutable<\/em>.<\/li>\n\n\n\n<li><strong>No trae snapshots nativos<\/strong>. Hazlos en <strong>LVM<\/strong>, <strong>Ceph<\/strong>, el <strong>hypervisor<\/strong> o la <strong>cabina<\/strong>.<\/li>\n\n\n\n<li><strong>Workloads de millones de ficheros min\u00fasculos<\/strong> y metadatos hiper-calientes: XFS ha mejorado, pero hay escenarios donde <strong>ext4<\/strong> o FS CoW con compresi\u00f3n pueden rendir mejor.<\/li>\n\n\n\n<li><strong>Tuning prematuro<\/strong>: tocar <code>logbsize<\/code>\/<code>logbufs<\/code> sin m\u00e9tricas suele empeorar. En NVMe modernos, dejar que el kernel auto-tunee y medir antes de cambiar es, a menudo, la mejor decisi\u00f3n.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">Estrategias para esquivar los bordes<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Planificaci\u00f3n de capacidad<\/strong>: varios LVs\/FS medianos; as\u00ed creces por partes y reduces blast radius.<\/li>\n\n\n\n<li><strong>Snapshots fuera del FS<\/strong>: LVM thin + reflink a nivel de FS es una pareja fant\u00e1stica para CI\/CD.<\/li>\n\n\n\n<li><strong>Almacenamiento bien descrito<\/strong>: su\/sw correcto en RAID; TRIM en SSD; cach\u00e9s del controlador documentadas.<\/li>\n\n\n\n<li><strong>Backups de verdad<\/strong>: <code>xfsdump<\/code>\/<code>restore<\/code> o tu soluci\u00f3n enterprise, pero con pruebas de restore calendarizadas.<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">Buenas pr\u00e1cticas y patrones de dise\u00f1o<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Multi-tenant con cuotas de proyecto<\/strong>: l\u00edmites por carpeta\/servicio, m\u00e9tricas claras y sin sorpresas de \u00faltima hora.<\/li>\n\n\n\n<li><strong>Reflink por defecto<\/strong> si clonas plantillas\/artefactos con frecuencia. El ahorro de espacio y tiempo se nota desde el d\u00eda uno.<\/li>\n\n\n\n<li><strong>Observabilidad<\/strong>: exporta m\u00e9tricas de IO y FS; alerta ante colas altas sostenidas y latencias de tail.<\/li>\n\n\n\n<li><strong>Runbooks<\/strong>: deja documentado <code>mkfs.xfs<\/code>, <code>mount<\/code>, <code>xfs_info<\/code> y el motivo de cada opci\u00f3n.<\/li>\n\n\n\n<li><strong>Canary volumes<\/strong>: antes de consolidar todo en un gran pool, prueba con un volumen canario y tus cargas reales.<\/li>\n\n\n\n<li><strong>Governance del espacio<\/strong>: cuotas + reportes semanales para detectar crecimiento an\u00f3malo (artefactos hu\u00e9rfanos, logs sin rotar, dumps olvidados).<\/li>\n<\/ul>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">Sobre XFS<\/h2>\n\n\n\n<p>Si tu prioridad es <strong>concurrencia, ficheros grandes y estabilidad operativa<\/strong>, XFS te da justo lo que necesitas sin florituras. Crece en caliente, se deja gobernar por cuotas de proyecto y, con reflink, multiplica tu eficiencia en clonado. \u00bfLa contrapartida? No hay shrink ni snapshots nativos, y no siempre es la mejor opci\u00f3n para enjambres de ficheros diminutos. Aun as\u00ed, bien montado y con almacenamiento decente, XFS es ese martillo grande que resuelve problemas reales mientras t\u00fa duermes.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">FAQs<\/h2>\n\n\n\n<p><strong>\u00bfPuedo reducir el tama\u00f1o de un XFS existente?<\/strong><br>No. XFS s\u00f3lo crece. Si te sobran cientos de gigas, planifica migrar o recrear con un tama\u00f1o m\u00e1s ajustado.<\/p>\n\n\n\n<p><strong>\u00bfC\u00f3mo activo las cuotas por carpeta\/proyecto?<\/strong><br>Monta con <code>prjquota<\/code>, define <code>\/etc\/projects<\/code> y <code>\/etc\/projid<\/code>, aplica <code>xfs_quota -x -c 'project -s NOMBRE'<\/code> y define l\u00edmites con <code>xfs_quota -x -c 'limit -p ...'<\/code>.<\/p>\n\n\n\n<p><strong>\u00bfCu\u00e1ndo usar <code>noatime<\/code>?<\/strong><br>Solo si mediste que tu workload lo agradece. <code>relatime<\/code> suele ser suficiente y evita penalizaciones innecesarias.<\/p>\n\n\n\n<p><strong>\u00bfReflink siempre conviene?<\/strong><br>Si clonas ficheros a menudo, s\u00ed. Si tu carga son escrituras intensivas sobre los mismos bloques (alta sobreescritura), mide el impacto antes.<\/p>\n\n\n\n<p><strong>\u00bfSe recomienda separar el journal en otro dispositivo?<\/strong><br>Solo si tu perfil de IOPS y latencia lo justifica (por ejemplo, un log en NVMe dedicado para un array m\u00e1s lento). En NVMe modernos, los defaults suelen ganar.<\/p>\n\n\n\n<p><strong>Opini\u00f3n Personal<\/strong><\/p>\n\n\n\n<p>XFS no es el sistema de archivos \u201cde moda\u201d; es la herramienta que me ha salvado la piel cuando la carga aprieta y el reloj marca las 3 AM. Lo elijo porque prioriza lo que de verdad importa en producci\u00f3n: estabilidad de latencia bajo presi\u00f3n, un journal predecible y una arquitectura que reparte el trabajo entre CPUs sin dramas. Cuando gestionas bases de datos, almacenes de logs, im\u00e1genes de VM o repositorios que escriben a la vez desde mil hilos, XFS se comporta como un adulto en la sala: no promete fuegos artificiales, promete que no te fallar\u00e1.<\/p>\n\n\n\n<p>Me gusta su filosof\u00eda de \u201cinfra primero\u201d. Crecer el sistema de archivos en caliente es rutinario (como deber\u00eda ser), las <strong>cuotas de proyecto<\/strong> me permiten acotar por carpeta o servicio sin inventos, y <strong>reflink<\/strong> me da clones instant\u00e1neos para plantillas y artefactos sin duplicar espacio. Esa combinaci\u00f3n reduce fricci\u00f3n operativa y te devuelve horas de vida que antes perd\u00edas moviendo datos de un lado a otro.<\/p>\n\n\n\n<p>\u00bfTiene aristas? S\u00ed, y agradecer\u00e1s saberlas antes: XFS no hace <em>shrink<\/em>. Si te pasas aprovisionando, te tocar\u00e1 migrar o recrear. Tampoco trae snapshots nativos; para eso est\u00e1 LVM, el hypervisor o la cabina. Y aunque ha mejorado con ficheros peque\u00f1os, si tu mundo son millones de miniarchivos con metadatos hirviendo, a veces otra opci\u00f3n encaja mejor. Pero justo ah\u00ed est\u00e1 el punto: elegir con criterio. Para cargas de E\/S paralela con ficheros grandes, XFS es el \u201cmartillo grande\u201d que resuelve problemas reales y evita sorpresas.<\/p>\n\n\n\n<p>En la pr\u00e1ctica, mis reglas son simples: <a href=\"https:\/\/www.hostingtg.com\/blog\/resiliencia\/\">alinear bien con RAID<\/a>, activar TRIM en SSD\/NVMe, empezar con <em>defaults<\/em> sensatos y medir antes de tocar el log. Si clonas mucho, formatea con <strong>reflink<\/strong>; si compartes entornos, aplica <strong>cuotas de proyecto<\/strong> desde el d\u00eda uno. Y, por favor, dise\u00f1a con cabeza: mejor varios vol\u00famenes medianos que un mega-volumen que luego no puedes reducir.<\/p>\n\n\n\n<p>Esta es mi opini\u00f3n tras a\u00f1os de golpes (y de \u00e9xitos) con XFS: menos ruido, m\u00e1s fiabilidad. Si lo montas bien, te olvidas de \u00e9l\u2026 y esa es la mayor virtud que puede tener un sistema de archivos.<\/p>\n\n\n\n<p>\u00bfT\u00fa c\u00f3mo lo ves? \u00bfTe ha sacado XFS de un apuro o te ha dado guerra? <strong>Cu\u00e9ntame tu experiencia en los comentarios<\/strong>: qu\u00e9 funcion\u00f3, qu\u00e9 no y qu\u00e9 ajustes te dieron mejores resultados.<\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Qu\u00e9 es XFS y por qu\u00e9 se usa tanto en servidores Si te dedicas a mover datos de verdad \u2014terabytes que crecen todas las semanas, jobs en paralelo y servicios peleando por IO\u2014 XFS es ese martillo grande que quieres cuando el volumen y la concurrencia importan m\u00e1s que la pirotecnia de features. Naci\u00f3 para [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":7351,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"set","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[15],"tags":[831,779,1209],"class_list":["post-7350","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tecnologia","tag-archivos","tag-linux","tag-xfs"],"_links":{"self":[{"href":"https:\/\/www.hostingtg.com\/blog\/wp-json\/wp\/v2\/posts\/7350","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.hostingtg.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.hostingtg.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.hostingtg.com\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.hostingtg.com\/blog\/wp-json\/wp\/v2\/comments?post=7350"}],"version-history":[{"count":1,"href":"https:\/\/www.hostingtg.com\/blog\/wp-json\/wp\/v2\/posts\/7350\/revisions"}],"predecessor-version":[{"id":7352,"href":"https:\/\/www.hostingtg.com\/blog\/wp-json\/wp\/v2\/posts\/7350\/revisions\/7352"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.hostingtg.com\/blog\/wp-json\/wp\/v2\/media\/7351"}],"wp:attachment":[{"href":"https:\/\/www.hostingtg.com\/blog\/wp-json\/wp\/v2\/media?parent=7350"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.hostingtg.com\/blog\/wp-json\/wp\/v2\/categories?post=7350"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.hostingtg.com\/blog\/wp-json\/wp\/v2\/tags?post=7350"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}