La inteligencia artificial general (IAG), una IA que es al menos tan capaz como los humanos, en la mayoría de las tareas cognitivas. Esta podría llegar en los próximos años.
La IAG, una forma de IA con capacidades cognitivas similares a las humanas, se perfila para convertirse en una realidad en los próximos años. Capaz de comprender, razonar, planificar y ejecutar acciones de forma autónoma. La IAG promete herramientas invaluables para abordar desafíos globales como el descubrimiento de fármacos, el crecimiento económico, el cambio climático, y revolucionar campos como la medicina y la educación.
¿Qué es la IAG y por qué es crucial su seguridad?
La IAG es una inteligencia artificial capaz de igualar o superar el rendimiento humano en la mayoría de las tareas cognitivas. Su potencial para generar beneficios tangibles para miles de millones de personas es inmenso, desde diagnósticos médicos más rápidos hasta experiencias de aprendizaje personalizadas. Democratizando el acceso al conocimiento avanzado y reduciendo barreras a la innovación. Sin embargo, dada su vasta capacidad transformadora, es fundamental abordar y prevenir incluso la más mínima posibilidad de daño.
¿Cómo aborda Google la seguridad de la IAG?
Google ha presentado su enfoque proactivo y sistemático para la seguridad de la IAG. En un nuevo documento titulado «Un enfoque para la seguridad técnica de la IAG». Este marco se basa en un trabajo previo y detalla la estrategia para monitorear el progreso de la IAG y asegurar un desarrollo responsable. El enfoque de seguridad explora cuatro áreas de riesgo principales: mal uso, desalineación, accidentes y riesgos estructurales, con una profundización en las dos primeras.
¿Quiénes están involucrados en esta iniciativa?
Liderado por figuras clave como Shane Legg (cofundador y científico jefe de IA en Google DeepMind), Lila Ibrahim y Helen King (del Consejo de Responsabilidad y Seguridad). Google está construyendo un ecosistema robusto para la preparación de la IAG. Esto implica una intensa colaboración interna y externa con expertos, la industria, gobiernos, organizaciones sin fines de lucro y la sociedad civil.
¿Para qué y cuándo?
El objetivo final es asegurar que la sociedad se beneficie de los inmensos avances de la IAG, garantizando un desarrollo responsable. La IAG podría llegar en los próximos años, y Google ya ha lanzado un nuevo curso sobre seguridad de la IAG para educar a investigadores y profesionales, sentando las bases para este futuro transformador.
En BS te ofrecemos capacitaciones, para que puedas incoporar los nuevos avances tecnológicos como soluciones en tu empresa.