Salesforce ha anunciado el lanzamiento de Service GPT, Sales GPT y Einstein GPT Trust Layer. Estas soluciones ayudarán a las organizaciones a impulsar la productividad y personalizar las interacciones con los clientes con IA generativa diseñada para los estándares de seguridad empresarial.
De esta manera, los usuarios podrán aprovechar Service GPT para autogenerar respuestas personalizadas y resumir automáticamente las interacciones con los clientes para futuras consultas, mientras que los clientes de Sales GPT se benefician de correos electrónicos personalizados generados por IA y basados en datos contextuales de los clientes almacenados en Salesforce.
En el caso de Einstein GPT Trust Layer, la capa de confianza de Einstein GPT evita que los datos de los clientes se almacenen fuera de Salesforce, lo que significa que los proveedores de modelos de lenguaje extenso (LLM) de terceros no almacenan las solicitudes ni las respuestas, ni las utilizan para entrenar sus modelos.
“Las funciones de IA generativa de Salesforce, que adoptan un enfoque de ecosistema abierto y están impulsadas por datos propios en tiempo real, están capacitando a todas las organizaciones para aprovechar los beneficios de productividad y eficiencia de la IA”, sostuvo Clara Shih, CEO de Salesforce AI. “Además, garantizan que la confianza y la seguridad de los datos de nivel empresarial permanezcan en el centro”.
Una apuesta por la IA generativa
Salesforce está integrando las capacidades de IA generativa de Einstein GPT en todos los productos de Salesforce. Y a través de Einstein GPT Trust Layer -la capa de confianza de Einstein GPT-, que proporciona seguridad de datos y salvaguardas de conformidad preparadas para la empresa, las organizaciones pueden aumentar la productividad y relacionarse con los clientes de forma personalizada sin sacrificar la confianza. Entre las funciones disponibles de forma general en Einstein GPT Trust Layer se incluyen:
- Cero retenciones de datos
Las empresas a veces dudan en explorar la IA generativa debido a la falta de control sobre dónde se retienen los datos cuando se envían a un a un modelo de lenguaje extenso (LLM). La capa de confianza de Einstein GPT evita que los datos de los clientes se almacenen fuera de Salesforce, lo que significa que las preguntas y respuestas no son almacenadas por proveedores de LLM de terceros ni se utilizan para entrenar su modelo. - Comunicaciones encriptadas
El encriptado de las comunicaciones a través de Transport Layer Security (TLS) protege las solicitudes enviadas a un LLM, junto con las respuestas enviadas de vuelta a Salesforce. - Comprobaciones de acceso a datos
Cuando una solicitud utiliza datos del cliente para generar una respuesta más personalizada, las empresas necesitan asegurarse de que los únicos datos añadidos a la solicitud son aquellos a los que el usuario final tiene permiso para acceder. Las comprobaciones de acceso a datos controlan los avisos restringiendo la base de datos sólo a los datos permitidos por los permisos del usuario. - Almacén de información
Para una adopción exitosa, los clientes necesitan bucles de retroalimentación que permitan que el éxito pasado guíe los resultados futuros. La capa de confianza de Einstein GPT recopila datos de retroalimentación -incluyendo si las respuestas generadas fueron útiles o no, y si, por ejemplo, un agente de servicio finalmente aceptó, rechazó o modificó esa respuesta- para mejorar la calidad de los avisos a lo largo del tiempo. - Registro de auditoría
Cumplir la normativa mientras se utiliza la IA es un requisito clave para muchas empresas. El registro de auditoría de la capa de confianza de Einstein GPT simplifica esta tarea al registrar de forma segura todas las indicaciones, salidas, interacciones y datos de respuesta, de modo que los equipos puedan beneficiarse de la IA generativa y, al mismo tiempo, satisfacer sus necesidades de cumplimiento.