Una de las grandes preocupaciones con el desarrollo de la inteligencia artificial es que los avances van muy rápido y, en consecuencia, esta tecnología puede salirse de control antes que lo previsto y con consecuencias insospechadas.
En ese sentido, una de las compañías percibidas como más maligna u osada es OpenAI, siendo su aparente menosprecio por las reglas y la ética parte de la disputa que tiempo atrás protagonizó Elon Musk, curiosamente, uno de los fundadores iniciales de esta compañía.
En el entorno de la IA, podría decirse que OpenAI es el equivalente de Meta en su área correspondiente, y en este punto debemos recordar que Meta también está metida de lleno en el tema de la inteligencia artificial y que aquí también se han estado dando situaciones que indican que se está todo moviendo muy rápido y no necesariamente tomándose en cuenta el factor ético.
Hasta ahora, la percepción ha sido que Anthropic, fundada por personal que alguna vez estuvo en OpenAI y que salió de ahí disgustado por temas éticos, es la más sana y prudente de estas compañías de inteligencia artificial. Desafortunadamente, esa percepción ha cambiado en estos días por unos cambios implementados en la política de seguridad que, al parecer, obedecen a presiones externas, incluyendo la feroz competencia que se da en este ámbito.
Para que se entienda la magnitud del cambio, Anthropic ha pasado de ser una compañía muy prudente y que abogaba por alcanzar un consenso a nivel de la industria con respecto a la seguridad y el manejo que deben de tener los desarrollos de inteligencia artificial a una que, en lo adelante, simplemente hará lo que le venga en ganas.
El razonamiento es el siguiente: si la competencia no hace nada por mantener bajo control sus desarrollos, ¿por qué tenemos nosotros que hacerlo? Como forma de justificar el cambio, los de Anthropic indican que el ellos insistir con el cumplimiento de esas normativas de seguridad autoimpuestas al tiempo que el resto de la industria echa esos conceptos a un lado podría resultar en un mundo potencialmente más peligroso.
Es un hecho que la competencia a nivel de la industria de la IA es bastante feroz y compleja, pero hay un factor adicional que podría explicar este repentino cambio de enfoque en Anthropic, y tiene que ver con un contrato vigente con el Pentágono de los Estados Unidos.
En días recientes, Anthropic recibió un ultimátum de parte del secretario de defensa de los Estados Unidos, Pete Hegseth, dónde esencialmente se le pedía a la compañía bajar esas imposiciones de seguridad para así poder cumplir con lo que exige el contrato, el cual es por 200 millones de dólares. Hay dos puntos de disputa que destacan: el primero de ellos tiene que ver con que Anthropic no está de acuerdo con el uso de armas, gestionadas por inteligencia artificial; el segundo punto es que tampoco está de acuerdo con aplicar vigilancia masiva sobre los ciudadanos de Estados Unidos.
Aunque Anthropic insiste que los cambios en sus políticas de seguridad no tienen que ver con este incidente con el Pentágono, resulta curiosa la cercanía entre un evento y el otro. Si fuera el caso que actuaron por esa presión, la ovida no sirvió de nada, pues este viernes la compañía entró en lista negra dentro del gobierno de los Estados Unidos.
Toda esta situación nos lleva a preguntarnos en qué pie estamos pagados como humanidad. Estamos en un momento donde la inteligencia artificial parece arroparlo todo, y esto incluye y se extiende a países que no son dos tradicionales en este tipo de industrias. Los centros de datos se están extendiendo a todo dar por todo el mundo, y eso está trayendo presiones medioambientales y de otros tipos, incluso en un país como República Dominicana, donde la tecnología a ese nivel, no suele tener tanta presencia, se están viendo una serie de iniciativas que están generando de por sí preocupaciones medioambientales.






