La inteligencia artificial (IA) tiene el potencial de revolucionar al mundo. Aplicaciones como ChatGPT, DALL·E 2 o My Heritage AI Time Machine han encontrado su auge entre las masas por brindar textos e imágenes increíblemente elaborados a partir de una simple frase. Muchos se asombran de las habilidades de la inteligencia artificial generativa, pero fallan en notar que esta tecnología no es nueva. Es la misma que creó asistentes de voz, juegos infinitamente cambiantes y robots de chat, los cuales hemos usado de manera cotidiana por muchos años.
Como cualquier tecnología, no puede permitirse permanecer estática, y el resultado de su evolución es este sistema mucho más sofisticado e inteligente. Según un estudio de McKinsey & Company, la adopción de la IA en las organizaciones ha crecido más del doble en los últimos cinco años, iniciando en un 20% y creciendo a 50% para el 2022. Tanto así que la inversión en este sector ha sumado 1,700 millones de dólares en los últimos tres años, de acuerdo con un artículo de Gartner.
La IA generativa se ha vuelto más poderosa y, por lo tanto, es capaz de hacer cosas problemáticas de una manera más convincente y realista. Un ejemplo de ello son los modelos generativos para los deepfakes, los cuales tienen el objetivo de personificar a los humanos, insertándolos en situaciones falsas con el uso de imágenes o videos. En algunas ocasiones pueden ser usados por motivos cómicos, pero, en otros casos, pueden llegar a ser utilizados para dañar la reputación de las personas.
Comprendemos que no podemos confiar en los resultados de IA generativos sin comprender el proceso por el cual funcionan estos sistemas. Intel ha reconocido por mucho tiempo la importancia de las implicaciones éticas y sociales asociadas con la implementación de tales avances tecnológicos. Esto es especialmente cierto para las aplicaciones de IA, ya que seguimos comprometidos con aprovechar los mejores métodos, principios y herramientas para garantizar prácticas responsables en cada paso de los ciclos de nuestros productos.
A medida que la IA generativa evoluciona, es fundamental que las personas sean la principal preocupación en este proyecto. La IA responsable comienza con el diseño y desarrollo de sistemas, no con la limpieza después de su implementación. En este sentido es importante establecer una estructura responsable de IA para capacitar los sistemas y garantizar que no generen materiales nocivos.
La seguridad puede ser mejorada mediante la realización de procesos de revisión rigurosos y exhaustivos a lo largo del ciclo de vida del desarrollo. Esto incluye establecer equipos de programación diversos para reducir los sesgos, desarrollar modelos de IA que sigan principios éticos, evaluar ampliamente los resultados desde las perspectivas técnicas y humanas, y colaborar con socios de la industria para mitigar los usos potencialmente nocivos de la IA.
Esta estructura garantiza que estamos encontrando la mejor manera de implementar esta tecnología de forma positiva, manteniendo a las personas en control de cómo pueden aprovechar mejor la IA. Un enfoque multidisciplinario nos permite profundizar nuestro conocimiento y dirección para aprovechar las oportunidades en el próspero sector de la IA mientras trabajamos dentro de los parámetros éticos, morales y de privacidad establecidos.