Kate Crawford AI Now Social and Political Questions for Artificial Intelligence

  Рет қаралды 2,878

Tech Policy Lab University of Washington

Tech Policy Lab University of Washington

Жыл бұрын

Пікірлер: 3
@iker3068
@iker3068 4 ай бұрын
🎯 Key Takeaways for quick navigation: 00:00 *🎙️ Introducción y presentación del evento* - Presentación del Tech Policy Lab y su función interdisciplinaria. - Descripción de la serie de conferencias distinguidas y su relevancia en el campus. - Introducción de Kate Crawford como conferencista destacada. 02:49 *🧠 Rol de la inteligencia artificial en la sociedad* - Kate Crawford presenta su experiencia en el estudio de las implicaciones sociales de la inteligencia artificial. - Discusión sobre la creciente influencia de la IA en áreas como la justicia penal, la atención médica y la educación. - Reflexión sobre la evolución y significado del término "inteligencia artificial" desde su creación en 1956. 06:23 *🔍 Problemas de sesgo en la IA* - Análisis de problemas de sesgo y discriminación presentes en sistemas de inteligencia artificial. - Ejemplos de sesgos en conjuntos de datos y resultados de algoritmos de IA. - Discusión sobre cómo el sesgo en la IA refleja y amplifica las desigualdades sociales preexistentes. 11:13 *📈 Aumento del interés en la equidad en la IA* - Reseña del creciente interés en abordar el sesgo y la equidad en sistemas de IA. - Mención de líderes de la industria de la IA reconociendo la importancia del problema. - Crítica a la idea de soluciones rápidas para resolver el sesgo en la IA y llamado a un enfoque más profundo y multidisciplinario. 14:01 *🤖 Conceptos clave sobre sesgo en la IA* - Exploración de los diferentes significados del término "sesgo" en disciplinas como la estadística, la informática y el derecho. - Diferenciación entre "daños de asignación" y "daños de representación" causados por sesgos en sistemas de IA. - Propuesta de un enfoque más integral que considere los efectos a largo plazo de la representación sesgada en la sociedad. 23:27 *🤖 La sección comienza discutiendo el fenómeno del estereotipo de género en modelos de lenguaje y traducción automática.* - Se analizan los estudios de Bullock Bassey, Kalai, Ava Narayanan y Joanna Bryson sobre asociaciones estereotípicas de género en incrustaciones de palabras. - Se menciona el ejemplo de Google Translate que refleja sesgos de género al traducir frases simples. - Se discute cómo los sistemas de reconocimiento facial pueden invisibilizar a ciertos grupos demográficos, con ejemplos de investigaciones de Joy Buolamwini y Timnit Gebru. 25:43 *💼 Se aborda el tema de los daños causados por el reconocimiento facial y la denigración en sistemas de inteligencia artificial.* - Se menciona el estudio "Gender Shades" de Joy Buolamwini y Timnit Gebru sobre el sesgo en el reconocimiento facial hacia diferentes géneros y tonos de piel. - Se discute el caso de Google Photos etiquetando a personas afrodescendientes como gorilas, destacando el problema de la denigración. - Se hace hincapié en la importancia de la diversidad en el desarrollo de tecnologías para evitar sesgos y daños. 27:20 *🛡️ Se exploran los daños de la subrepresentación y la denigración en la búsqueda de imágenes en línea.* - Se hace referencia a un estudio de la Universidad de Washington que muestra cómo ciertas profesiones están representadas de manera desigual en los resultados de búsqueda de imágenes. - Se discute cómo estas representaciones sesgadas amplifican las desigualdades existentes en la sociedad. - Se propone la creación de una taxonomía más detallada de los daños representacionales para abordar de manera más efectiva el sesgo en la inteligencia artificial. 28:44 *🤯 Se examinan las respuestas técnicas y las implicaciones éticas de abordar los sesgos en la inteligencia artificial.* - Se discuten las posibles respuestas técnicas para abordar sesgos, como eliminar datos sesgados o modificar asociaciones problemáticas en sistemas de aprendizaje automático. - Se plantea el desafío de definir la neutralidad y de quién recae la responsabilidad de tomar decisiones al respecto. - Se cuestiona si corregir los sesgos tecnológicamente es suficiente o si se requieren cambios más profundos en la sociedad y en los sistemas legales y éticos. 46:13 *🛑 Preocupaciones sobre la clasificación y el control algorítmico* - Existe una preocupación sobre la capacidad de los algoritmos para predecir características personales como la orientación sexual o el comportamiento criminal. - Se señala una confusión epistémica fundamental en la clasificación algorítmica. - Se destaca el riesgo de un sistema de clasificación y control no supervisado y sus implicaciones sociales y políticas. 47:24 *🔍 Caminos para abordar los efectos sociales dañinos de la inteligencia artificial* - Se propone la implementación de mecanismos más sólidos para evaluar y comprender sistemas de toma de decisiones algorítmicas. - Se aboga por la realización de evaluaciones de impacto algorítmico y la adopción de estándares para conjuntos de datos de entrenamiento. - Se menciona el establecimiento de un grupo de trabajo en Nueva York para abordar la responsabilidad algorítmica. 49:00 *🤝 Promoviendo la interdisciplinariedad y la diversidad en la IA* - Se resalta la importancia de colaborar con expertos en diversas áreas, especialmente aquellos con lazos sólidos con las comunidades afectadas. - Se menciona el lanzamiento del Instituto AI Now en NYU como un esfuerzo para abordar problemas de IA de manera interdisciplinaria. - Se aboga por priorizar la diversidad y la inclusión en el desarrollo de sistemas de IA de alto impacto. 01:07:38 *💡 Desafíos de regulación y prácticas comerciales en la industria de la inteligencia artificial.* - No hay un conjunto de mejores prácticas acordadas en la industria de la IA. 01:08:07 *💬 Impacto de la consolidación de infraestructura en la industria de la información.* - Consolidación de la infraestructura y dependencia de soluciones de IA predefinidas. - Posibles consecuencias de la adquisición masiva de industrias por parte de mega corporaciones. 01:08:59 *🔄 Dependencia de sistemas de IA invisibles y la necesidad de transparencia.* - La mayoría del aprendizaje automático ocurre en sistemas que no son accesibles ni transparentes para el público. - Necesidad de sistemas auditables y evaluaciones de impacto para evitar consecuencias no deseadas. 01:11:36 *🔍 Evaluación de sesgos en conjuntos de datos y desafíos de data provenance.* - Dificultades para detectar y medir sesgos en grandes conjuntos de datos. - Falta de estándares y prácticas para la procedencia de datos. - Necesidad de desarrollar estándares de data provenance para comprender y abordar sesgos en los conjuntos de datos de entrenamiento. Made with HARPA AI
@sumiokuge9118
@sumiokuge9118 11 ай бұрын
How funny her PC is!
@shirleybekins3617
@shirleybekins3617 Жыл бұрын
I was playing around with images a while back. My photo got a "sleepy" label in an AI vision program . How might that be harmful if I received that label from an AI hiring algorithm?
Why a Forefather of AI Fears the Future
1:10:41
World Science Festival
Рет қаралды 126 М.
Tech Talk with Kashmir Hill, Your Face Belongs to Us
51:50
Tech Policy Lab University of Washington
Рет қаралды 351
Jumping off balcony pulls her tooth! 🫣🦷
01:00
Justin Flom
Рет қаралды 34 МЛН
艾莎撒娇得到王子的原谅#艾莎
00:24
在逃的公主
Рет қаралды 41 МЛН
Spot The Fake Animal For $10,000
00:40
MrBeast
Рет қаралды 210 МЛН
Using AI to Accelerate Scientific Discovery
1:32:31
Institute for Ethics in AI Oxford
Рет қаралды 132 М.
The moment we stopped understanding AI [AlexNet]
17:38
Welch Labs
Рет қаралды 903 М.
The Future Of AI, According To Former Google CEO Eric Schmidt
20:07
Noema Magazine
Рет қаралды 263 М.
Munk Debate on Artificial Intelligence | Bengio & Tegmark vs. Mitchell & LeCun
1:47:20
Policy-Relevant Science & Technology
Рет қаралды 103 М.
What Is an AI Anyway? | Mustafa Suleyman | TED
22:02
TED
Рет қаралды 1,3 МЛН
What's the future for generative AI? - The Turing Lectures with Mike Wooldridge
1:00:59
Jumping off balcony pulls her tooth! 🫣🦷
01:00
Justin Flom
Рет қаралды 34 МЛН