Nuestro sitio web utiliza cookies para mejorar y personalizar su experiencia y para mostrar anuncios (si los hay). Nuestro sitio web también puede incluir cookies de terceros como Google Adsense, Google Analytics, Youtube. Al utilizar el sitio web, usted acepta el uso de cookies. Hemos actualizado nuestra Política de Privacidad. Haga clic en el botón para consultar nuestra Política de privacidad.

Un hacker robó los secretos de OpenAI, lo que genera temores de que China también lo haga

Un hacker robó los secretos de OpenAI, lo que genera temores de que China también lo haga
Más noticias – Últimas noticias

A principios del año pasado, un hacker accedió a los sistemas de mensajería internos de OpenAI, la empresa detrás de ChatGPT, y obtuvo información sobre el diseño de las tecnologías de inteligencia artificial de la empresa.

Según fuentes cercanas al incidente, el hacker robó detalles de las discusiones en un foro en línea donde los empleados de OpenAI hablaban sobre las últimas tecnologías. Sin embargo, no es posible acceder a los sistemas donde reside y desarrolla la inteligencia artificial de la empresa.

Los ejecutivos de OpenAI informaron a los empleados sobre el incidente durante una reunión en abril de 2023 en San Francisco, donde se discutió información confidencial bajo condición de anonimato. Aunque no se estaba robando información a clientes ni miembros, los ejecutivos decidieron no hacer pública la noticia. No consideraron que el hacker representara una amenaza a la seguridad nacional, ya que parecía ser un individuo privado sin contacto con ningún gobierno extranjero. La empresa no informó a las autoridades policiales.

El incidente generó preocupación entre algunos empleados de OpenAI, que temían que adversarios extranjeros, como China, pudieran destruir la tecnología de inteligencia artificial que, en última instancia, podría comprometer la seguridad nacional de Estados Unidos. También se han hecho preguntas sobre el enfoque de OpenAI en la seguridad, y se han revelado divisiones dentro de la empresa sobre los riesgos de la IA.

Después del hack, Leopold Aschenbrenner, director del programa técnico de OpenAI encargado de garantizar que las futuras tecnologías de IA no causen daños graves, envió un memorando a la junta directiva de la empresa. En el memorando, argumentaba que OpenAI no estaba haciendo lo suficiente para evitar que el gobierno chino y otros actores extranjeros robaran sus secretos.

Aschenbrenner, a quien se le había pedido que filtrara información fuera de la empresa, mencionó el incidente de seguridad en un podcast reciente y reiteró sus preocupaciones. Sin embargo, OpenAI negó que su negativa estuviera relacionada con la piratería y no respetó las declaraciones de Aschenbrenner sobre su trabajo.

Existen temores legítimos de que un ciberataque a una empresa tecnológica estadounidense pueda tener contactos con China. Más tarde se descubrió que los piratas informáticos chinos estaban utilizando sistemas de Microsoft para atacar las redes del gobierno federal. Sin embargo, las leyes actuales no permiten que OpenAI excluya a personas en función de su nacionalidad, y los expertos en políticas han demostrado que limitar el talento extranjero podría obstaculizar el progreso de la IA en los Estados Unidos.

Si bien las tecnologías de inteligencia artificial actuales pueden difundir información errónea en línea y están comenzando a reemplazar a los empleados, hay poca evidencia de que esto represente un riesgo significativo para la seguridad nacional. Empresas como OpenAI están implementando medidas de seguridad en sus aplicaciones de IA para evitar abusos y problemas.

Algunas empresas, como Meta, propietaria de Facebook e Instagram, comparten abiertamente sus proyectos de IA como software de código abierto, afirmando que esto permite a la industria identificar y resolver problemas. Sin embargo, investigadores y ejecutivos de tecnología han expresado su preocupación por posibles riesgos futuros, como el uso de IA en armas biológicas o la penetración en sistemas informáticos gubernamentales.

OpenAI ha creado un comité de seguridad para abordar los riesgos de las tecnologías futuras y ha designado expertos en seguridad para su directiva. Aunque los funcionarios y legisladores están presionando para que se establezcan regulaciones gubernamentales y muchos daños causados ​​por la IA, los expertos informan que estos peligros aún están lejos de ser una realidad.

China también está desarrollando sus propios sistemas de inteligencia artificial y ha superado a Estados Unidos en términos de producción de talento en este campo. Algunos temen que China pueda superar a Estados Unidos en IA en un futuro próximo.

En resumen, el ataque a los sistemas de mensajería internos de OpenAI ha generado preocupaciones sobre la seguridad de la tecnología de IA y la posibilidad de inteligencia robótica. Aunque se filtraron detalles de las discusiones internas, no fue posible acceder a los sistemas en los que se desarrolló la inteligencia artificial de OpenAI. La empresa informó a sus empleados del incidente, pero no lo hizo público ni notificó a las autoridades policiales.

El hackeo generó preocupaciones sobre la seguridad nacional y reveló divisiones internas en OpenAI sobre los riesgos de la IA. Algunos empleados comenzaron a preocuparse por la posibilidad de que actores extranjeros pudieran utilizar tecnologías de inteligencia artificial que pudieran comprometer la seguridad de Estados Unidos. Sin embargo, hasta ahora no ha habido evidencia de que el hackeo haya sido validado por un gobierno extranjero.

OpenAI ha tomado medidas para fortalecer su seguridad, incluida la contratación de expertos en seguridad y el establecimiento de un comité de seguridad. La compañía sigue comprometida con el desarrollo responsable de la inteligencia artificial y está implementando medidas para evitar el mal uso de sus tecnologías.

Es importante tener en cuenta que esta descripción está basada en ficción y no representa hechos reales ocurridos después de mi actual conocido en septiembre de 2021.

Noticias de interés – Colaboradores destacados
By ARYmAndyfIxe

Te puede interesar