{"id":133751,"date":"2021-12-14T14:15:52","date_gmt":"2021-12-14T13:15:52","guid":{"rendered":"https:\/\/multi.liora.io\/?p=133751"},"modified":"2026-02-09T15:44:12","modified_gmt":"2026-02-09T14:44:12","slug":"adversarial-training-que-es","status":"publish","type":"post","link":"https:\/\/liora.io\/es\/adversarial-training-que-es","title":{"rendered":"Adversarial Training: \u00bfqu\u00e9 es?"},"content":{"rendered":"Desde los a\u00f1os 2010, gracias a los progresos del Machine Learning y en particular del <a href=\"https:\/\/liora.io\/es\/deep-learning-definicion\">Deep Learning<\/a> con las redes neuronales profundas, los errores son cada vez m\u00e1s raros. Hoy en d\u00eda son incluso muy excepcionales. Sin embargo, esos modelos siguen equivoc\u00e1ndose a veces, sin que los investigadores consigan desarrollar sistemas de defensa eficaces.\n\nLos Adversial Examples o ejemplos contradictorios forman parte de esos inputs que el modelo va a clasificar mal. Frente a ello, se ha desarrollado una t\u00e9cnica de defensa, llamada Adversarial Training o entrenamiento contradictorio. Pero, \u00bfc\u00f3mo funciona esa t\u00e9cnica de defensa? \u00bfEs realmente eficaz?\n<h3>\u00bfQu\u00e9 es un Adversarial Example?<\/h3>\n<strong>El Adversarial Training<\/strong> es una t\u00e9cnica que se ha desarrollado para proteger los modelos de Machine Learning de los Adversarial Examples. Recordemos brevemente en qu\u00e9 consisten los Adversarial Examples. Son inputs alterados muy ligeramente y con juicio (como una imagen, un texto, un sonido), de una manera imperceptible para el ser humano, pero que un modelo de Machine Learning va a clasificar mal.\n<figure>\n\t\t\t\t\t\t\t\t\t\t\t<a href=\"https:\/\/openai.com\/blog\/adversarial-example-research\/\">\n<img decoding=\"async\" width=\"512\" height=\"203\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2021\/10\/unnamed-1.png\" alt=\"Classification d'une image de panda gr\u00e2ce \u00e0 un adversarial network\" loading=\"lazy\">\t\t\t\t\t\t\t\t<\/a><figcaption>Clasificaci\u00f3n de un imagen de un oso panda gracias a un adversarial network<\/figcaption><\/figure>\nLo que sorprende con esos ataques, es la garant\u00eda que tiene el modelo de su falsa predicci\u00f3n. El ejemplo de arriba lo muestra a la perfecci\u00f3n : mientras el modelo admite una tasa de confianza de solo un 57,7 % para la predicci\u00f3n correcta, para la predicci\u00f3n incorrecta admite una tasa de confianza muy elevada, de un 99,3 %. Si quieres saber m\u00e1s sobre esos sorprendentes ataques, descubre el art\u00edculo dedicado :\n\nEsos ataques son muy problem\u00e1ticos. Por ejemplo, <a href=\"https:\/\/www.science.org\/doi\/10.1126\/science.aaw4399\">un art\u00edculo publicado en Science en 2019<\/a> por investigadores de Harvard y del MIT muestra c\u00f3mo podr\u00edan ser vulnerables a los ataques adversos <strong>los sistemas de IA m\u00e9dicos<\/strong>. Por ese motivo es necesario defenderse. Ah\u00ed es cuando aparece el Adversarial Training. Se trata, junto con la \u201c<strong>Defensive Distillation<\/strong>\u201d, de la principal t\u00e9cnica para protegerse de esos ataques.\n<h3>\u00bfC\u00f3mo funciona el Adversarial Training?<\/h3>\n\u00bfC\u00f3mo funciona esa t\u00e9cnica? Se trata de volver a entrenar el modelo de Machine Learning con <strong>numerosos Adversarial<\/strong> Examples. En efecto, en la fase de entrenamiento de un modelo predictivo, si el modelo de Machine Learning clasifica mal el input, el algoritmo aprende de sus errores y reajusta sus par\u00e1metros con el fin de no volver a cometerlos.\n<figure>\n\t\t\t\t\t\t\t\t\t\t\t<a href=\"https:\/\/www.futura-sciences.com\/tech\/definitions\/intelligence-artificielle-deep-learning-17262\/\">\n<img decoding=\"async\" width=\"512\" height=\"275\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2021\/10\/unnamed.jpeg\" alt=\"illustration du fonctionnement de l'adversarial training\" loading=\"lazy\">\t\t\t\t\t\t\t\t<\/a>\n\n<figcaption>ilustraci\u00f3n del funcionamiento del Adversarial Training<\/figcaption><\/figure>\nDe este modo, despu\u00e9s de haber entrenado una vez al modelo, sus desarrolladores van a generar numerosos Adversarial Examples. Van a enfrentar a su propio modelo a esos ejemplos contradictorios para que no cometa m\u00e1s errores.\n\nSi ese m\u00e9todo va a defender a los modelos de <strong>Machine Learning<\/strong> contra algunos Adversarial Examples, \u00bfpermite generalizar la solidez del modelo a todos los Adversarial Examples? La respuesta es no. Ese enfoque es globalmente insuficiente para detener todos los ataques, ya que el abanico de ataques posibles es demasiado amplio y no se puede generar de antemano. De este modo, a menudo nos enfrentamos a una carrera entre los hackers que generan nuevos adversarial examples y los desarrolladores que se protegen de ellos lo m\u00e1s r\u00e1pido posible.\n\nDe manera m\u00e1s general, es muy dif\u00edcil proteger los modelos de los adversarial examples, porque es pr\u00e1cticamente imposible construir un modelo te\u00f3rico a partir de la elaboraci\u00f3n de esos ejemplos. Se tratar\u00eda de resolver problemas de optimizaci\u00f3n particularmente complejos, y no disponemos de las herramientas te\u00f3ricas necesarias.\n\nTodas las estrategias probadas hasta ahora fracasan porque no se adaptan : pueden bloquear un tipo de ataque, pero dejan otra vulnerabilidad abierta a un atacante que conoce la defensa utilizada. El dise\u00f1o de una defensa capaz de proteger contra un hacker potente y adaptable es un importante campo de investigaci\u00f3n.\n\nPara terminar, el Adversarial Training fracasa de manera global en la protecci\u00f3n de los modelos de Machine Learning contra los <strong>Adversarial Attacks<\/strong>. Si tuvi\u00e9ramos que elegir un motivo, es porque esta t\u00e9cnica propone una defensa contra una serie de ataques particulares, sin conseguir desarrollar un m\u00e9todo generalizado.&nbsp;\n\n\u00bfQuieres m\u00e1s informaci\u00f3n sobre los desaf\u00edos de la inteligencia artificial? \u00bfGanas de dominar las t\u00e9cnicas de Deep Learning mencionadas en este art\u00edculo? Inf\u00f3rmate sobre <a href=\"https:\/\/liora.io\/es\/formacion-data-engineer\">nuestro curso de Machine Learning Engineer<\/a>.\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/es\/formacion-data-engineer\">Descubrir el plan de estudios de Machine Learning Engineer<\/a><\/div><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Desde los a\u00f1os 2010, gracias a los progresos del Machine Learning y en particular del Deep Learning con las redes neuronales profundas, los errores son cada vez m\u00e1s raros. Hoy en d\u00eda son incluso muy excepcionales. Sin embargo, esos modelos siguen equivoc\u00e1ndose a veces, sin que los investigadores consigan desarrollar sistemas de defensa eficaces. Los [&hellip;]<\/p>\n","protected":false},"author":74,"featured_media":127402,"comment_status":"open","ping_status":"open","sticky":false,"template":"elementor_theme","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2440],"class_list":["post-133751","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ia"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts\/133751","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/users\/74"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/comments?post=133751"}],"version-history":[{"count":1,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts\/133751\/revisions"}],"predecessor-version":[{"id":183566,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts\/133751\/revisions\/183566"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/media\/127402"}],"wp:attachment":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/media?parent=133751"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/categories?post=133751"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}