Cel: +52 (55) 3040-5403 Correo: mariana.velazquez@recluit.com
post-tittle

¿Cómo desarrollar un enfoque ético para el avance de la IA?

Por: Reclu IT

22 de marzo de 2019

El potencial de la IA me fascina. Puede que no sea necesariamente consciente de ello, pero IA está trabajando en segundo plano durante las muchas tareas rutinarias que realizamos todos los días, indica Göran Karlsson, futurista, socio ejecutivo y desarrollador de negocios en TCS.

El poder de la IA es recopilar y procesar información cuando estamos comprando algo de Amazon, transmitiendo una serie de televisión o planeando unas vacaciones. En un entorno empresarial, puede ayudar a comprender mejor las necesidades de los clientes o automatizar la producción en una fábrica.

Y la razón por la que IA está tan involucrada en todas estas experiencias es porque es esencialmente un optimizador que puede aprovecharse para mejorar cualquier proceso, en cualquier lugar, haciendo que las experiencias sean más relevantes. Sin embargo, el papel de la IA (y los datos que recopila y procesa) no es transparente para la mayoría de los consumidores.

 Y eso ha llevado a llamadas para asegurarnos de que el uso de IA sea ético y responsable. La Unión Europea (UE) está estableciendo un marco regulatorio como parte de ese impulso.

Evitando la inercia

Las directrices de la UE hablan sobre el futuro del trabajo, la equidad, la seguridad, la seguridad, la inclusión social y lo que se denomina «transparencia algorítmica».

Sin embargo, aunque la regulación es sin duda importante, debemos asegurarnos de que la inercia no se establezca.

La gente tiende a pensar que la IA es peligrosa, simplemente porque es nueva. Las empresas también pueden ser bastante conservadoras, especialmente cuando escuchan las discusiones entre la industria y los políticos sobre el gobierno de IA.

Todo esto significa que podríamos estar en peligro de ser demasiado cautelosos y podríamos terminar obstaculizando su potencial. En Europa, ya tenemos algo para ponerse al día: de las 50 principales compañías de tecnología global, ninguna de ellas es de la UE.

La evidencia de una encuesta que Tata Consultancy Services (TCS) realizó sobre IA hace unos años sugiere que la UE no se está quedando atrás cuando se trata de innovación en esta área.

Debemos asegurarnos de que el panorama político acelere activamente el avance de la IA en lugar de simplemente mantenerse al día.

El combustible de los datos

Los datos son un área donde ya se ha hecho evidente que se necesitan pautas claras para garantizar que se adopte un enfoque ético. Y las reglas del Reglamento General de Protección de Datos (GDPR) han tenido un buen comienzo a este respecto.

Pero, por supuesto, la inteligencia artificial es tan buena como la calidad de los datos disponibles.

En pocas palabras, IA trabaja en tres etapas distintas: recopila datos, optimiza y aprende, y en última instancia realiza acciones comerciales. Analiza y comprende grandes conjuntos de datos para encontrar los patrones que llevarán a la optimización.

Muchas empresas tienen datos más que suficientes, pero están ocultos en silos. Cuando estos silos se abran a la inteligencia artificial, las empresas serán mucho más efectivas que cuando basan sus procesos de toma de decisiones en suposiciones.

En todos y cada uno de los proyectos de IA, los datos deben recopilarse como combustible para la fase de optimización y aprendizaje. Aquí es donde las cuestiones éticas y las implicaciones legales entran en juego.

La recopilación de datos, su clasificación y verificación deben ser seguras y confiables. Y las políticas para garantizar la calidad, la seguridad y los datos imparciales son, por lo tanto, de importancia crítica.

Dentro de este ciclo de optimización, aprendizaje y re-optimización, debe haber un conjunto de parámetros o reglas para definir cuáles son los resultados deseados. Al mismo tiempo, la IA debe poder proceder con un grado aceptable de precisión para que sea efectiva.

El futuro del trabajo

También hay una dimensión ética cuando se trata de preparar a la fuerza laboral para hacer frente a la próxima ola de cambio.

La industria de servicios financieros es una de las áreas donde estamos viendo la aceptación más significativa de IA. En Londres, por ejemplo, las máquinas han reemplazado a los humanos cuando se trata de negociar acuerdos y operaciones especulativas.

El cerebro humano solo tiene una capacidad limitada, pero la IA puede detectar un posible fraude, por ejemplo, al examinar muchas diferencias en múltiples dimensiones.

Dichos cambios conducen a temores justificables sobre mayores pérdidas de empleos y despidos. Pero, de la misma manera que otras tecnologías en el pasado han permitido el crecimiento, la introducción de la IA representa un cambio hacia trabajos más significativos, y creará nuevas ocupaciones que no existían en el pasado.

La IA carece de inteligencia emocional y empatía, ambas entre las habilidades únicamente humanas que son insustituibles. Pero con el fin de optimizar el potencial de la inteligencia artificial para mejorar la rentabilidad, tenemos el deber de capacitar y volver a capacitar a nuestra fuerza laboral.

En TCS, estamos invirtiendo masivamente en capacitar a nuestros 420,000 asociados, utilizando las instalaciones más modernas. El Informe Villani 2018 del gobierno francés se centra en cuatro categorías clave de habilidades que necesitamos mejorar: habilidades cognitivas transversales, que incluyen resolución de problemas y comprensión del lenguaje y los números; habilidades creativas; habilidades sociales y situacionales, como el trabajo en equipo y la independencia; y habilidades de precisión, como la destreza manual, que no deben pasarse por alto.

Por lo tanto, un enfoque ético significa garantizar que las personas reciban una nueva capacitación y que se las vuelva a capacitar adecuadamente. Y la UE tiene un papel importante que desempeñar para incentivar a las personas a obtener el nivel adecuado de experiencia en temas de ciencia, tecnología, ingeniería y matemáticas (STEM).

 En resumen, necesitamos regulación, pero también necesitamos más incentivos y educación. Y, si queremos evitar la inercia, también debemos asumir cierto grado de riesgo.

Deja tu comentario

Tu dirección de correo electrónico no será publicada.

Campos obligatorios(*)
post-tittle

¿Cómo desarrollar un enfoque ético para el avance de la IA?

Por: Reclu IT

22 de marzo de 2019

El potencial de la IA me fascina. Puede que no sea necesariamente consciente de ello, pero IA está trabajando en segundo plano durante las muchas tareas rutinarias que realizamos todos los días, indica Göran Karlsson, futurista, socio ejecutivo y desarrollador de negocios en TCS.

El poder de la IA es recopilar y procesar información cuando estamos comprando algo de Amazon, transmitiendo una serie de televisión o planeando unas vacaciones. En un entorno empresarial, puede ayudar a comprender mejor las necesidades de los clientes o automatizar la producción en una fábrica.

Y la razón por la que IA está tan involucrada en todas estas experiencias es porque es esencialmente un optimizador que puede aprovecharse para mejorar cualquier proceso, en cualquier lugar, haciendo que las experiencias sean más relevantes. Sin embargo, el papel de la IA (y los datos que recopila y procesa) no es transparente para la mayoría de los consumidores.

 Y eso ha llevado a llamadas para asegurarnos de que el uso de IA sea ético y responsable. La Unión Europea (UE) está estableciendo un marco regulatorio como parte de ese impulso.

Evitando la inercia

Las directrices de la UE hablan sobre el futuro del trabajo, la equidad, la seguridad, la seguridad, la inclusión social y lo que se denomina «transparencia algorítmica».

Sin embargo, aunque la regulación es sin duda importante, debemos asegurarnos de que la inercia no se establezca.

La gente tiende a pensar que la IA es peligrosa, simplemente porque es nueva. Las empresas también pueden ser bastante conservadoras, especialmente cuando escuchan las discusiones entre la industria y los políticos sobre el gobierno de IA.

Todo esto significa que podríamos estar en peligro de ser demasiado cautelosos y podríamos terminar obstaculizando su potencial. En Europa, ya tenemos algo para ponerse al día: de las 50 principales compañías de tecnología global, ninguna de ellas es de la UE.

La evidencia de una encuesta que Tata Consultancy Services (TCS) realizó sobre IA hace unos años sugiere que la UE no se está quedando atrás cuando se trata de innovación en esta área.

Debemos asegurarnos de que el panorama político acelere activamente el avance de la IA en lugar de simplemente mantenerse al día.

El combustible de los datos

Los datos son un área donde ya se ha hecho evidente que se necesitan pautas claras para garantizar que se adopte un enfoque ético. Y las reglas del Reglamento General de Protección de Datos (GDPR) han tenido un buen comienzo a este respecto.

Pero, por supuesto, la inteligencia artificial es tan buena como la calidad de los datos disponibles.

En pocas palabras, IA trabaja en tres etapas distintas: recopila datos, optimiza y aprende, y en última instancia realiza acciones comerciales. Analiza y comprende grandes conjuntos de datos para encontrar los patrones que llevarán a la optimización.

Muchas empresas tienen datos más que suficientes, pero están ocultos en silos. Cuando estos silos se abran a la inteligencia artificial, las empresas serán mucho más efectivas que cuando basan sus procesos de toma de decisiones en suposiciones.

En todos y cada uno de los proyectos de IA, los datos deben recopilarse como combustible para la fase de optimización y aprendizaje. Aquí es donde las cuestiones éticas y las implicaciones legales entran en juego.

La recopilación de datos, su clasificación y verificación deben ser seguras y confiables. Y las políticas para garantizar la calidad, la seguridad y los datos imparciales son, por lo tanto, de importancia crítica.

Dentro de este ciclo de optimización, aprendizaje y re-optimización, debe haber un conjunto de parámetros o reglas para definir cuáles son los resultados deseados. Al mismo tiempo, la IA debe poder proceder con un grado aceptable de precisión para que sea efectiva.

El futuro del trabajo

También hay una dimensión ética cuando se trata de preparar a la fuerza laboral para hacer frente a la próxima ola de cambio.

La industria de servicios financieros es una de las áreas donde estamos viendo la aceptación más significativa de IA. En Londres, por ejemplo, las máquinas han reemplazado a los humanos cuando se trata de negociar acuerdos y operaciones especulativas.

El cerebro humano solo tiene una capacidad limitada, pero la IA puede detectar un posible fraude, por ejemplo, al examinar muchas diferencias en múltiples dimensiones.

Dichos cambios conducen a temores justificables sobre mayores pérdidas de empleos y despidos. Pero, de la misma manera que otras tecnologías en el pasado han permitido el crecimiento, la introducción de la IA representa un cambio hacia trabajos más significativos, y creará nuevas ocupaciones que no existían en el pasado.

La IA carece de inteligencia emocional y empatía, ambas entre las habilidades únicamente humanas que son insustituibles. Pero con el fin de optimizar el potencial de la inteligencia artificial para mejorar la rentabilidad, tenemos el deber de capacitar y volver a capacitar a nuestra fuerza laboral.

En TCS, estamos invirtiendo masivamente en capacitar a nuestros 420,000 asociados, utilizando las instalaciones más modernas. El Informe Villani 2018 del gobierno francés se centra en cuatro categorías clave de habilidades que necesitamos mejorar: habilidades cognitivas transversales, que incluyen resolución de problemas y comprensión del lenguaje y los números; habilidades creativas; habilidades sociales y situacionales, como el trabajo en equipo y la independencia; y habilidades de precisión, como la destreza manual, que no deben pasarse por alto.

Por lo tanto, un enfoque ético significa garantizar que las personas reciban una nueva capacitación y que se las vuelva a capacitar adecuadamente. Y la UE tiene un papel importante que desempeñar para incentivar a las personas a obtener el nivel adecuado de experiencia en temas de ciencia, tecnología, ingeniería y matemáticas (STEM).

 En resumen, necesitamos regulación, pero también necesitamos más incentivos y educación. Y, si queremos evitar la inercia, también debemos asumir cierto grado de riesgo.

Deja tu comentario

Tu dirección de correo electrónico no será publicada.

Campos obligatorios(*)

Política de privacidad de www.recluit.mx

Para recibir la información sobre sus Datos Personales, la finalidad y las partes con las que se comparte,
contacten con el Propietario.