{"id":184816,"date":"2026-03-02T17:19:50","date_gmt":"2026-03-02T16:19:50","guid":{"rendered":"https:\/\/liora.io\/es\/esta-nueva-ia-acaba-de-cambiar-la-ciencia-de-materiales-para-siempre"},"modified":"2026-03-02T17:19:50","modified_gmt":"2026-03-02T16:19:50","slug":"esta-nueva-ia-acaba-de-cambiar-la-ciencia-de-materiales-para-siempre","status":"publish","type":"post","link":"https:\/\/liora.io\/es\/esta-nueva-ia-acaba-de-cambiar-la-ciencia-de-materiales-para-siempre","title":{"rendered":"Esta Nueva IA Acaba de Cambiar la Ciencia de Materiales para Siempre"},"content":{"rendered":"<p><strong>Investigadores han desarrollado LLaMat, familia de modelos IA especializados que superan sistemas generales mayores en ciencia de materiales con menos par\u00e1metros. Basados en la arquitectura de Meta LLaMA y entrenados con 30 mil millones de tokens cient\u00edficos, revelaron algo inesperado: LLaMA-2 se adapta mejor que el nuevo LLaMA-3, sugiriendo que modelos avanzados pueden resistir el aprendizaje de dominio.<\/strong><\/p>\n<p>Los investigadores han desarrollado <strong>LLaMat<\/strong>, una familia de modelos de lenguaje IA especializados que superan a sistemas de mayor tama\u00f1o de uso general en tareas de <strong>ciencia de materiales<\/strong> a pesar de tener menos par\u00e1metros. Los modelos, basados en la arquitectura <strong>LLaMA<\/strong> de Meta y entrenados con <strong>30 mil millones de tokens<\/strong> de literatura cient\u00edfica, revelaron un hallazgo inesperado: <strong>LLaMA-2<\/strong> se adapta mejor al entrenamiento especializado que el m\u00e1s nuevo <strong>LLaMA-3<\/strong>, lo que sugiere que los modelos avanzados pueden resistirse al aprendizaje espec\u00edfico del dominio.<\/p>\n<p>Estos modelos avanzados logran su rendimiento a trav\u00e9s de un sofisticado proceso de entrenamiento en dos etapas. Los investigadores primero continuaron preentrenando las <strong>arquitecturas LLaMA<\/strong> base en la literatura de ciencia de materiales, luego implementaron ajuste de instrucciones usando tanto el dataset OpenOrca de uso general como un set de instrucciones curado dise\u00f1ado espec\u00edficamente para ciencia de materiales y qu\u00edmica, seg\u00fan el repositorio GitHub del proyecto.<\/p>\n<p>La infraestructura de entrenamiento incluy\u00f3 <strong>clusters Cerebras CS2<\/strong> para preentrenamiento y <strong>GPUs NVIDIA A100 80GB<\/strong> para ajustar instrucciones. El equipo de investigaci\u00f3n bas\u00f3 su c\u00f3digo base de entrenamiento en las bibliotecas Megatron-LLM y Meditron-LLM, haciendo todo el c\u00f3digo disponible p\u00fablicamente para la reproducibilidad.<\/p>\n<p>En evaluaciones de rendimiento a lo largo de tareas de ciencia de materiales, incluyendo extracci\u00f3n de informaci\u00f3n y benchmarks de PNL espec\u00edficos del dominio, los modelos LLaMat especializados de <strong>7 y 13 mil millones de par\u00e1metros<\/strong> superaron consistentemente a sus contrapartes generales de mayor tama\u00f1o. Esto demuestra que la especializaci\u00f3n de dominio dirigida puede superar la ventaja tradicional de la escala en sistemas IA.<\/p>\n<h3 style=\"margin-top:2rem;margin-bottom:1rem;\">Descubrimiento inesperado sobre la adaptabilidad de los modelos<\/h3>\n<p>La investigaci\u00f3n revel\u00f3 un hallazgo contraintuitivo sobre la selecci\u00f3n de modelos base. <strong>LLaMA-3<\/strong>, a pesar de ser m\u00e1s avanzado, se adapt\u00f3 menos eficazmente al entrenamiento del dominio de ciencia de materiales en comparaci\u00f3n con el m\u00e1s antiguo <strong>LLaMA-2<\/strong>, seg\u00fan lo detallado en la publicaci\u00f3n Nature Machine Intelligence.<\/p>\n<p>Este hallazgo sugiere que los modelos extensamente preentrenados en corpus generales pueden desarrollar una capacidad reducida para asimilar conocimiento altamente especializado. El descubrimiento tiene implicaciones significativas para los investigadores que eligen modelos base para la adaptaci\u00f3n al dominio, indicando que lo m\u00e1s nuevo no siempre significa mejor para aplicaciones especializadas.<\/p>\n<p>El desarrollo confirma que el <strong>preentrenamiento continuo espec\u00edfico del dominio<\/strong> representa una estrategia altamente efectiva para las aplicaciones de IA cient\u00edficas. Demuestra un claro equilibrio entre el tama\u00f1o del modelo y la especializaci\u00f3n, donde modelos de tama\u00f1o moderado, bien entrenados, pueden superar a sistemas generalistas masivos en tareas espec\u00edficas.<\/p>\n<p>Para garantizar la reproducibilidad y acelerar futuras investigaciones, el equipo ha publicado tanto el c\u00f3digo completo para procesamiento de datos, entrenamiento y evaluaci\u00f3n, como los <strong>pesos del modelo LLaMat<\/strong> preentrenados y ajustados en Hugging Face Hub. La publicaci\u00f3n principal incluye documentaci\u00f3n exhaustiva de las limitaciones de los modelos y consideraciones \u00e9ticas, seg\u00fan Nature Machine Intelligence.<\/p>\n<p>Este trabajo establece un nuevo paradigma para desarrollar <strong>herramientas IA para investigaci\u00f3n cient\u00edfica<\/strong>, demostrando que la especializaci\u00f3n estrat\u00e9gica puede ofrecer un rendimiento superior mientras se utilizan menos recursos computacionales que las alternativas de uso general.<\/p>\n<div style=\"margin-top:3rem;padding-top:1.5rem;border-top:1px solid #e2e4ea;\">\n<h3 style=\"margin:0 0 0.75rem;font-size:1.1rem;letter-spacing:0.08em;text-transform:uppercase;\">\n    Sources<br \/>\n  <\/h3>\n<ul style=\"margin:0;padding-left:1.2rem;list-style:disc;\">\n<li>Nature Machine Intelligence<\/li>\n<\/ul>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Investigadores han desarrollado LLaMat, familia de modelos IA especializados que superan sistemas generales mayores en ciencia de materiales con menos par\u00e1metros. Basados en la arquitectura de Meta LLaMA y entrenados con 30 mil millones de tokens cient\u00edficos, revelaron algo inesperado: LLaMA-2 se adapta mejor que el nuevo LLaMA-3, sugiriendo que modelos avanzados pueden resistir el aprendizaje de dominio.<\/p>\n","protected":false},"author":87,"featured_media":184815,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2440,2428],"class_list":["post-184816","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ia","category-noticias"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts\/184816","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/users\/87"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/comments?post=184816"}],"version-history":[{"count":1,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts\/184816\/revisions"}],"predecessor-version":[{"id":184824,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts\/184816\/revisions\/184824"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/media\/184815"}],"wp:attachment":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/media?parent=184816"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/categories?post=184816"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}