
Beena Ammanath es la directora de la práctica de Ética de Technology Trust de Deloitte. Deloitte
En 1845, William Welch Deloitte, contratado para auditar el Great Western Railway, fundó la empresa que todavía lleva su nombre. Deloitte Touche Tohmatsu Limited ha pasado de ser una empresa unipersonal a una firma de contabilidad «Cuatro Grandes» que emplea a cientos de miles de personas en la actualidad. Según la mayoría de las medidas, Deloitte está ahora la firma de contabilidad más grande del mundo.
como jefe de Práctica de Ética del Technology Trust de DeloitteBeena Ammanath se enfrenta diariamente a desafíos que William Welch Deloitte no podría haber imaginado hace 178 años. Además de guiar la perspectiva de Deloitte sobre la ética de la IA tanto interna como externamente, Ammanath pone en práctica la ética de la IA desde una perspectiva empresarial y dirige el Global Deloitte AI Institute. Su equipo completó recientemente su segundo Estudio sobre el estado de la ética y la confianza en la tecnologíaque analiza la ética en la tecnología en todas las empresas.
Una gran tendencia que hemos estado siguiendo durante algún tiempo (y que se ha acelerado en esta era de la IA generativa) es el papel cada vez mayor del director de ética. Las organizaciones que adoptan tecnología emergente enfrentan nuevos desafíos que surgen de la complejidad del software, el ritmo del cambio y la necesidad de respetar la diversidad de sus empleados, clientes y electores.
Pero, como explica Ammanath más adelante, la responsabilidad del desempeño ético ahora involucra a todo el grupo ejecutivo, incluidas las juntas directivas. Si bien el crecimiento de la marca es importante, la necesidad de proteger la reputación de la marca y confianza en el mercado está atrayendo la atención adicional que la ética está recibiendo en los niveles más altos de las empresas.
Tuve la oportunidad de entrevistar a Ammanath, y nuestra fascinante y amplia conversación abordó los esfuerzos de la empresa por definir la IA ética en el contexto del desarrollo de la fuerza laboral, así como también cómo los resultados del estudio han informado la comprensión de las cuestiones y prácticas éticas de la IA. de empresas de todo el mundo.
Vamos a profundizar en.
ZDNET: ¿Cómo define Deloitte la IA ética en el contexto del desarrollo de la fuerza laboral?
Beena Ammanath: Con tecnologías avanzadas como la IA, existe un inmenso potencial de impacto positivo, pero al mismo tiempo existe el riesgo de resultados no deseados.
Las organizaciones deben tener confianza en que las herramientas que utilizan se comportan de manera ética, se puede confiar en que protegerán la privacidad, la seguridad y el trato equitativo de sus usuarios y están alineadas con su propósito y valores. Aquí es donde entran en juego las directrices éticas de la IA, que ayudan a las organizaciones a aprovechar responsablemente esta tecnología y al mismo tiempo aprovechar sus beneficios.
También: ¿Su empresa necesita un director de IA?
Presentar estas pautas a la fuerza laboral es un paso crítico al adoptar la IA en una organización. En nuestra investigación vimos que los líderes están utilizando una variedad de estrategias para educar a su fuerza laboral sobre la ética de la IA y prepararlos para usar herramientas de IA, desde educar a los trabajadores sobre mejores prácticas confiables hasta mejorar las habilidades y contratar roles específicos de ética de la IA.
ZDNET: ¿Qué estrategias recomienda para incorporar consideraciones éticas en el desarrollo de la IA?
LICENCIADO EN LETRAS: El enfoque para desarrollar un marco ético para el desarrollo y la aplicación de la IA será único para cada organización. Tendrán que determinar sus casos de uso de la IA, así como las medidas de seguridad, políticas y prácticas específicas necesarias para asegurarse de lograr el resultado deseado y al mismo tiempo salvaguardar la confianza y la privacidad.
Establecer estas pautas éticas (y comprender los riesgos de operar sin ellas) puede ser muy complejo. El proceso requiere conocimientos y experiencia en una amplia gama de disciplinas. En nuestro estudiovimos una tendencia hacia la contratación para roles especializados, como investigador de ética de IA (53%), especialista en cumplimiento (53%) y analista de políticas tecnológicas (51%).
También: La ética de la IA generativa: cómo podemos aprovechar esta poderosa tecnología
En un nivel más amplio, publicar políticas y directrices éticas claras y ofrecer talleres y capacitaciones sobre la ética de la IA se clasificaron en nuestra encuesta como algunas de las formas más efectivas de comunicar la ética de la IA a la fuerza laboral y, por lo tanto, garantizar que los proyectos de IA se lleven a cabo con la ética en mente.
ZDNET: ¿Qué papel juega el liderazgo en el fomento de una cultura ética de IA?
LICENCIADO EN LETRAS: El liderazgo desempeña un papel crucial a la hora de subrayar la importancia de la ética de la IA, determinar los recursos y la experiencia necesarios para establecer las políticas éticas de una organización y garantizar que estos principios se implementen.
Esta fue una de las razones por las que exploramos el tema de la ética de la IA desde la perspectiva de la alta dirección. Estamos viendo que los líderes están adoptando un enfoque proactivo para preparar a su fuerza laboral para esta tecnología.
Los directores de ética y los funcionarios de confianza se han convertido en un pilar para las organizaciones que buscan adoptar éticamente la tecnología emergente, pero no es solo su responsabilidad. El diálogo a menudo involucra a todo el nivel ejecutivo, incluida la junta directiva. Nuestro estudio también reveló que los ejecutivos ven una fuerte conexión entre la ética de la IA e importantes inquilinos comerciales como el crecimiento de los ingresos, la reputación de la marca y la confianza del mercado.
También es importante señalar que el esfuerzo por introducir la ética y las políticas de IA se está llevando a cabo en todas las organizaciones, en todos los niveles, desde la alta dirección y la sala de juntas hasta los especialistas y los empleados individuales.
ZDNET: ¿Cómo se garantiza que los principios éticos de la IA se apliquen de manera consistente en todos los equipos globales?
LICENCIADO EN LETRAS: Este es un ejemplo de por qué es fundamental establecer directrices éticas claras y coherentes y, probablemente, de por qué se clasificó como la forma más eficaz de comunicar la ética de la IA a los empleados, según nuestra encuesta.
También estamos viendo conversaciones sobre la ética de la IA entre los líderes a nivel de junta directiva, lo que garantizaría políticas y acciones consistentes en toda la organización. Según el estudio, más de la mitad de los encuestados dijeron que las juntas directivas (52%) y los directores de ética (52%) siempre participan en la creación de políticas y directrices para el uso ético de la IA.
ZDNET: ¿Cómo cree que cambiará el futuro del trabajo con la adopción de la IA ética?
LICENCIADO EN LETRAS: El creciente énfasis en la ética de la IA es una buena señal de que la integración de la IA en el mundo del trabajo está avanzando en una dirección positiva: el énfasis generalizado en el valor de establecer y hacer cumplir principios éticos significa que las fuerzas laborales podrán aprovechar sus capacidades de manera más efectiva y eficientemente.
También: Todo el mundo quiere una IA responsable, pero pocas personas están haciendo algo al respecto
Para los trabajadores, esto también significa que muchos se sentirán alentados y empoderados para aumentar su conocimiento de la tecnología. Nuestra encuesta mostró que aproximadamente el 45% de las organizaciones están capacitando y mejorando activamente a su fuerza laboral en IA.
ZDNET: ¿Cuáles son los desafíos únicos de mejorar las habilidades de los empleados para una IA ética?
LICENCIADO EN LETRAS: La mejora de las habilidades es una parte importante de la adopción de la IA, pero puede verse muy diferente para trabajadores con diferentes habilidades y experiencia. Implica comprender las capacidades y habilidades actuales de los empleados y ver cómo esas habilidades podrían mejorarse o desarrollarse con la IA.
Comprender cómo las habilidades únicas de los trabajadores interactúan con la tecnología y cómo ésta puede potenciarlas, especialmente en organizaciones grandes y diversas, puede ser un desafío.
ZDNET: ¿Qué medidas se pueden tomar para mejorar la transparencia en los procesos de toma de decisiones de IA?
LICENCIADO EN LETRAS: La comunicación es clave aquí: el mayor enfoque en la ética de la IA ha provocado conversaciones a nivel de liderazgo no solo sobre el establecimiento de principios éticos, sino también sobre su comunicación efectiva. Si bien gran parte de la toma de decisiones se lleva a cabo a nivel ejecutivo o de la junta directiva, es importante que estas decisiones involucren a especialistas de diversas disciplinas y que se comuniquen de manera efectiva en toda la organización.
ZDNET: ¿Qué medidas deberían tomar las empresas para garantizar que sus aplicaciones de IA sean responsables y confiables?
LICENCIADO EN LETRAS: Al desarrollar o iniciar nuevas aplicaciones de IA, es importante tener un marco para dirigir el diseño y operación responsable de estas aplicaciones. Nuestra encuesta reveló que muchos ejecutivos son conscientes de la necesidad de estas directrices y están dando prioridad a la creación y comunicación de políticas éticas de IA antes de activar nuevos proyectos piloto de IA.
También: Cuatro formas en que la IA contribuye al sesgo en el lugar de trabajo
ZDNET: ¿Cómo evalúa Deloitte las implicaciones éticas de las nuevas tecnologías de IA? ¿Cómo aborda Deloitte las preocupaciones éticas que rodean la IA y la privacidad? ¿Qué pautas éticas sigue Deloitte al desarrollar soluciones de IA?
LICENCIADO EN LETRAS: Deloitte Marco de IA confiable describe siete dimensiones a través de las cuales evaluar el comportamiento de la IA:
- Transparencia y explicabilidad
- Justicia e imparcialidad
- Robustez y fiabilidad
- Seguridad y proteccion
- Responsabilidad
- Responsabilidad
- Respeto a la privacidad
La práctica Technology Trust Ethics de Deloitte también produjo un marco para guiar la toma de decisiones responsable en el diseño, operación y gobernanza de todas las tecnologías emergentes.
Además de desarrollar marcos rectores, el equipo Technology Trust Ethics de Deloitte lanzó una capacitación fundamental, primera en su tipo, en 2023 para ayudar a los empleados a desarrollar una mentalidad tecnológica ética, reconocer acciones prácticas que cualquiera puede tomar para detectar y mitigar los riesgos éticos con las tecnologías, y Comprender la creciente necesidad de desarrollar y manejar la tecnología de manera responsable y confiable en Deloitte.
También: La IA está potenciando la colaboración entre desarrolladores y usuarios empresariales
ZDNET: ¿Cómo se puede integrar la ética de la IA en los valores fundamentales de una empresa? ¿Cuál es la importancia de la IA ética para mantener la confianza del consumidor?
LICENCIADO EN LETRAS: El uso de herramientas de IA en todas las organizaciones ya es casi omnipresente: la mayoría (84%) de los ejecutivos de nivel C encuestados informan que sus organizaciones utilizan actualmente IA. Un 12% adicional de los ejecutivos indica que explorarán casos de uso de IA durante el próximo año.
Esto significa que las organizaciones deben centrarse en garantizar que el uso de estas herramientas (y cualquier tecnología emergente) se alinee con los valores, la ética y las expectativas fundamentales de la organización.
Tener una comprensión clara del uso previsto de la tecnología para su organización y el resultado deseado es fundamental para establecer las políticas necesarias para garantizar esos resultados.
Existe un fuerte vínculo entre la confianza en la marca y las políticas de confiabilidad y ética en torno a la IA. En nuestra encuesta, el 47% de los ejecutivos cree que las pautas éticas para tecnologías emergentes como la IA generativa son cruciales para la reputación de la marca y la confianza del mercado.
ZDNET: ¿Cómo pueden las organizaciones garantizar que sus sistemas de IA sean inclusivos y equitativos?
LICENCIADO EN LETRAS: Crear y utilizar herramientas de IA que sean equitativas e inclusivas es un proceso continuo que debe evolucionar junto con la tecnología. Esto significa involucrar a investigadores y especialistas que puedan desarrollar procesos y sistemas para abordar cuestiones como el sesgo.
También requiere la participación de diversas perspectivas en el desarrollo de la IA, para garantizar que la tecnología se diseñe y opere de manera inclusiva. La inclusión y la equidad deben incorporarse al marco de ética de la IA de una organización como una faceta clave a abordar al desarrollar o aprovechar la IA.
Pensamientos finales
Los editores de ZDNET y yo queremos agradecer enormemente a Beena Ammanath por tomarse el tiempo para participar en esta entrevista en profundidad. Hay mucho en qué pensar aquí. ¡Gracias Beena!
También: La demanda de trabajo híbrido no hace más que crecer, según un nuevo informe de Deloitte
¿Qué opinas? ¿Sus recomendaciones le dieron alguna idea sobre cómo mejorar los problemas de prejuicios y diversidad en su organización? Háganos saber en los comentarios a continuación.
Puedes seguir las actualizaciones diarias de mi proyecto en las redes sociales. Asegúrese de suscribirse a mi boletín de actualización semanal en subpilay sígueme en Twitter en @DavidGewirtzen Facebook en Facebook.com/DavidGewirtzen Instagram en Instagram.com/DavidGewirtzy en YouTube en YouTube.com/DavidGewirtzTV.