{"id":23442,"date":"2025-01-20T07:34:55","date_gmt":"2025-01-20T13:34:55","guid":{"rendered":"https:\/\/www.newsmillenium.com\/?p=23442"},"modified":"2025-01-20T07:34:58","modified_gmt":"2025-01-20T13:34:58","slug":"el-pentagono-y-los-desarrolladores-de-ia-buscan-un-equilibrio-etico-en-su-colaboracion","status":"publish","type":"post","link":"https:\/\/www.newsmillenium.com\/index.php\/2025\/01\/20\/el-pentagono-y-los-desarrolladores-de-ia-buscan-un-equilibrio-etico-en-su-colaboracion\/","title":{"rendered":"El Pent\u00e1gono y los desarrolladores de IA buscan un equilibrio \u00e9tico en su colaboraci\u00f3n"},"content":{"rendered":"\n<p>NotiPress<\/p>\n\n\n\n<p>El Departamento de Defensa de Estados Unidos est\u00e1 integrando herramientas de inteligencia artificial (IA) generativa para mejorar su capacidad de identificar y evaluar amenazas, pero mantiene una postura firme en evitar que estas tecnolog\u00edas se utilicen para causar da\u00f1o directo a los humanos. Seg\u00fan la Dra. Radha Plumb, directora digital y de inteligencia artificial del Pent\u00e1gono, estas herramientas est\u00e1n ayudando en la planificaci\u00f3n y estrategia dentro de la &#8220;cadena de eliminaci\u00f3n&#8221;, un proceso militar que incluye la identificaci\u00f3n, seguimiento y neutralizaci\u00f3n de amenazas.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p>Empresas como OpenAI, Anthropic y Meta han flexibilizado sus pol\u00edticas para permitir el uso de sus modelos en defensa e inteligencia, aunque con restricciones que proh\u00edben su uso directo en sistemas letales. Seg\u00fan Plumb, el Pent\u00e1gono ha sido claro en que las decisiones de fuerza letal siempre incluir\u00e1n supervisi\u00f3n humana. &#8220;Como cuesti\u00f3n de confiabilidad y \u00e9tica, siempre tendremos humanos involucrados en la decisi\u00f3n de emplear la fuerza&#8221;, afirm\u00f3.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p>Anthropic, por ejemplo, proh\u00edbe expl\u00edcitamente el uso de sus modelos para crear o modificar sistemas dise\u00f1ados para causar da\u00f1o. Su CEO, Dario Amodei, enfatiz\u00f3 la necesidad de un enfoque equilibrado: &#8220;Estamos tratando de buscar un punto intermedio, de hacer las cosas de manera responsable&#8221;.<\/p>\n\n\n\n<p>La IA generativa ha demostrado ser \u00fatil para explorar escenarios estrat\u00e9gicos y opciones de respuesta en contextos de amenaza. Plumb destac\u00f3 que estas herramientas permiten a los comandantes analizar m\u00faltiples posibilidades y tomar decisiones m\u00e1s informadas. Sin embargo, a\u00fan persisten debates sobre la autonom\u00eda de estos sistemas, especialmente en aplicaciones militares.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p>El uso de IA en la defensa ha generado preocupaci\u00f3n entre empleados de empresas tecnol\u00f3gicas y expertos en \u00e9tica. En contraste con protestas anteriores, como las relacionadas con el &#8220;Proyecto Nimbus&#8221; de Google y Amazon, la comunidad de IA ha mostrado una respuesta m\u00e1s moderada. Investigadores como Evan Hubinger de Anthropic sostienen que colaborar con el gobierno es inevitable y necesario para garantizar un uso responsable de la IA.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p>A medida que la tecnolog\u00eda avanza, el Pent\u00e1gono y los desarrolladores de IA buscan mantener un equilibrio entre aprovechar las capacidades de la IA y respetar principios \u00e9ticos. Aunque las herramientas actuales no act\u00faan de manera completamente aut\u00f3noma, su implementaci\u00f3n en defensa plantea desaf\u00edos continuos sobre c\u00f3mo gestionar la colaboraci\u00f3n entre humanos y m\u00e1quinas en decisiones cr\u00edticas.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>NotiPress El Departamento de Defensa de Estados Unidos est\u00e1 integrando herramientas de inteligencia artificial (IA) generativa para mejorar su capacidad de identificar y evaluar amenazas, pero mantiene una postura firme en evitar que estas tecnolog\u00edas se utilicen para causar da\u00f1o directo a los humanos. Seg\u00fan la Dra. Radha Plumb, directora digital y de inteligencia artificial [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":23443,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"tdm_status":"","tdm_grid_status":"","footnotes":""},"categories":[14,3],"tags":[],"class_list":{"0":"post-23442","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-destacads","8":"category-internacional"},"jetpack_featured_media_url":"https:\/\/www.newsmillenium.com\/wp-content\/uploads\/2025\/01\/portada-1-IA-pentagono.jpg","amp_enabled":true,"_links":{"self":[{"href":"https:\/\/www.newsmillenium.com\/index.php\/wp-json\/wp\/v2\/posts\/23442","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.newsmillenium.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.newsmillenium.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.newsmillenium.com\/index.php\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.newsmillenium.com\/index.php\/wp-json\/wp\/v2\/comments?post=23442"}],"version-history":[{"count":1,"href":"https:\/\/www.newsmillenium.com\/index.php\/wp-json\/wp\/v2\/posts\/23442\/revisions"}],"predecessor-version":[{"id":23444,"href":"https:\/\/www.newsmillenium.com\/index.php\/wp-json\/wp\/v2\/posts\/23442\/revisions\/23444"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.newsmillenium.com\/index.php\/wp-json\/wp\/v2\/media\/23443"}],"wp:attachment":[{"href":"https:\/\/www.newsmillenium.com\/index.php\/wp-json\/wp\/v2\/media?parent=23442"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.newsmillenium.com\/index.php\/wp-json\/wp\/v2\/categories?post=23442"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.newsmillenium.com\/index.php\/wp-json\/wp\/v2\/tags?post=23442"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}