Dirección 

175 Greenwich St, New York, NY 10007

Un hacker robó secretos de OpenAI, generando temores de que China pueda hacer lo mismo

Un hacker robó secretos de OpenAI, generando temores de que China pueda hacer lo mismo – MundoDaily

A principios del año pasado, un hacker obtuvo acceso a los sistemas de mensajería internos de OpenAI, creador de ChatGPT, y robó detalles sobre el diseño de las tecnologías de IA de la empresa.

El hacker obtuvo detalles de discusiones en un foro en línea donde los empleados hablaron sobre las últimas tecnologías de OpenAI, según dos personas familiarizadas con el incidente, pero no entró en los sistemas donde la empresa aloja y construye su inteligencia artificial.

Los ejecutivos de OpenAI revelaron el incidente a los empleados durante una reunión general en las oficinas de la compañía en San Francisco en abril de 2023, según las dos personas, que discutieron información confidencial sobre la compañía bajo condición de anonimato.

Pero los ejecutivos decidieron no compartir la noticia públicamente porque no se había robado ninguna información sobre clientes o socios, dijeron las dos personas. Los ejecutivos no consideraron el incidente como una amenaza a la seguridad nacional porque creían que el hacker era un individuo privado sin vínculos conocidos con un gobierno extranjero. La empresa no informó al FBI ni a nadie más en las fuerzas del orden.

Para algunos empleados de OpenAI, la noticia generó temores de que adversarios extranjeros como China pudieran robar tecnología de IA que, si bien ahora es principalmente una herramienta de trabajo e investigación, podría eventualmente poner en peligro la seguridad nacional de Estados Unidos. También generó preguntas sobre la seriedad con la que OpenAI estaba tratando la seguridad y expuso fracturas dentro de la empresa por los riesgos de la inteligencia artificial.

Tras la infracción, Leopold Aschenbrenner, director de programas técnicos de OpenAI centrado en garantizar que las futuras tecnologías de IA no causen daños graves, envió un memorando a la junta directiva de OpenAI, argumentando que la empresa no estaba haciendo lo suficiente para impedir que el gobierno chino y chino otros adversarios extranjeros roben sus secretos.

Aschenbrenner dijo que OpenAI lo despidió esta primavera por filtrar otra información fuera de la empresa y argumentó que su despido tuvo motivaciones políticas. Aludió a la infracción en un podcast reciente, pero los detalles del incidente no se han informado previamente. Dijo que la seguridad de OpenAI no era lo suficientemente fuerte como para proteger contra el robo de secretos importantes si actores extranjeros se infiltraran en la empresa.

«Apreciamos las preocupaciones que Leopold planteó mientras estaba en OpenAI, y esto no condujo a su separación», dijo una portavoz de OpenAI, Liz Bourgeois. Refiriéndose a los esfuerzos de la compañía para construir inteligencia artificial general, una máquina que puede hacer cualquier cosa que el cerebro humano pueda hacer, agregó: “Si bien compartimos su compromiso de construir AGI segura, no estamos de acuerdo con muchas de las afirmaciones que ha hecho desde entonces. nuestro trabajo.»

Los temores de que un hackeo a una empresa de tecnología estadounidense pueda tener vínculos con China no son descabellados. El mes pasado, Brad Smith, presidente de Microsoft, testificó en el Capitolio sobre cómo los piratas informáticos chinos utilizaron los sistemas del gigante tecnológico para lanzar un ataque de amplio alcance contra las redes del gobierno federal.

Sin embargo, según las leyes federales y de California, OpenAI no puede impedir que la gente trabaje en la empresa por su nacionalidad, y los investigadores políticos han afirmado que prohibir que el talento extranjero participe en proyectos en Estados Unidos podría obstaculizar significativamente el progreso de la IA en este país.

«Necesitamos las mentes mejores y más brillantes trabajando en esta tecnología», dijo Matt Knight, jefe de seguridad de OpenAI, al New York Times en una entrevista. «Conlleva algunos riesgos y tenemos que descubrirlos».

(El Times demandó a OpenAI y su socio Microsoft, alegando infracción de derechos de autor de contenido de noticias relacionado con sistemas de inteligencia artificial).

OpenAI no es la única empresa que construye sistemas cada vez más potentes utilizando tecnología de IA en rápida evolución. Algunos de ellos, en particular Meta, propietario de Facebook e Instagram, comparten libremente sus diseños con el resto del mundo como software de código abierto. Creen que los peligros que plantean las tecnologías de inteligencia artificial actuales son pequeños y que compartir código permite a los ingenieros e investigadores de toda la industria identificar y solucionar problemas.

Los sistemas de inteligencia artificial actuales pueden ayudar a difundir desinformación en línea, incluidos textos, imágenes fijas y, cada vez más, videos. También están empezando a quitar algunos puestos de trabajo.

Empresas como OpenAI y sus competidores Anthropic y Google añaden protecciones a sus aplicaciones de IA antes de ofrecerlas a individuos y empresas, con la esperanza de evitar que las personas utilicen las aplicaciones para difundir información errónea o causar otros problemas.

Pero no hay mucha evidencia de que las tecnologías de inteligencia artificial actuales representen un riesgo significativo para la seguridad nacional. Los estudios de OpenAI, Anthropic y otros el año pasado demostraron que la IA no era significativamente más peligrosa que los motores de búsqueda. Daniela Amodei, cofundadora de Anthropic y presidenta de la empresa, dijo que su última tecnología de inteligencia artificial no sería un gran riesgo si sus diseños fueran robados o compartidos libremente con otros.

“Si fuera propiedad de otra persona, ¿podría ser extremadamente perjudicial para gran parte de la sociedad? Nuestra respuesta es ‘No, probablemente no’”, dijo a The Times el mes pasado. “¿Podría acelerar algo para un mal actor en el futuro? Tal vez. Es realmente especulativo”.

Aún así, a los investigadores y ejecutivos de tecnología les preocupa desde hace mucho tiempo que la IA algún día pueda impulsar la creación de nuevas armas biológicas o ayudar a piratear los sistemas informáticos gubernamentales. Algunos incluso creen que podría destruir a la humanidad.

Varias empresas, incluidas OpenAI y Anthropic, ya están bloqueando sus operaciones técnicas. OpenAI creó recientemente un Comité de Seguridad para explorar cómo debería abordar los riesgos que plantean las tecnologías futuras. El comité incluye a Paul Nakasone, un ex general del ejército que dirigió la Agencia de Seguridad Nacional y el Comando Cibernético. También fue nombrado miembro de la junta directiva de OpenAI.

«Comenzamos a invertir en seguridad años antes de ChatGPT», dijo Knight. «Estamos en un camino no sólo para comprender los riesgos y adelantarnos a ellos, sino también para profundizar nuestra resiliencia».

Los funcionarios federales y los legisladores estatales también están presionando para que se establezcan regulaciones gubernamentales que prohíban a las empresas lanzar ciertas tecnologías de inteligencia artificial y les impongan multas millonarias si sus tecnologías causan daño. Pero los expertos dicen que esos peligros aún están a años o incluso décadas de distancia.

Las empresas chinas están construyendo sus propios sistemas que son casi tan poderosos como los principales sistemas estadounidenses. Según algunas métricas, China ha eclipsado a Estados Unidos como el mayor productor de talentos en IA, y el país genera casi la mitad de los principales investigadores de IA del mundo.

«No es una locura pensar que China pronto estará por delante de Estados Unidos», dijo Clément Delangue, director ejecutivo de Hugging Face, una empresa que alberga muchos de los proyectos de inteligencia artificial de código abierto del mundo.

Algunos investigadores y líderes de seguridad nacional sostienen que los algoritmos matemáticos en el corazón de los sistemas de IA actuales, si bien no son peligrosos hoy en día, podrían volverse peligrosos y requieren controles más estrictos en los laboratorios de IA.

“Aunque los peores escenarios tienen una probabilidad relativamente baja, si tienen un alto impacto, entonces es nuestra responsabilidad tomarlos en serio”, dijo Susan Rice, exasesora de política interna del presidente Biden y exasesora de seguridad nacional del presidente. Barack Obama durante un evento en Silicon Valley el mes pasado. «No creo que sea ciencia ficción, como a muchos les gusta afirmar».

MundoDaily – #hacker #robó #secretos #OpenAI #generando #temores #China #pueda #hacer #mismo

Publish: 2024-07-04 05:02:11

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *