Actualité des Experts de l'IA
-
Nando de Freitas
Description: Nando de Freitas est chercheur dans le domaine de l’apprentissage automatique, et en particulier dans les sous-domaines des réseaux de neurones, de l’inférence bayésienne et de l’optimisation bayésienne, et de l’apprentissage profond. Maintenant chercheur chez Deepmind, il n'hésite pas à partager les dernières avancées du domaine sur les réseau sociaux. Il considère que s'est en partageant les simulateurs, le code et les data que la robotique va progresser. -
Nige Willson
Description: Conférencier mondial, influenceur et conseiller sur l'intelligence artificielle, l'innovation et la technologie (classé parmi les meilleurs influenceurs de l'IA au monde) - ancien directeur technologique européen chez Microsoft, mais maintenant une voix indépendante sur l'intelligence artificielle et l'utilisation et la mise en œuvre responsables de la technologie. Il est d'accord avec l' expert Judeal Peralsur le fait que la causalité est une clé pour aller de l'avant. -
Ria Pratyusha Kalluri
Description: Ria était chercheuse au MIT, quand elle s'est profondément intéressée à l'intelligence artificielle. Au début, elle a construit des systèmes d'IA pour révéler les événements à l'intérieur du corps humain. Au Dana-Farber Cancer Institute, elle a développé un algorithme pour identifier les changements de voies génétiques qui sous-tendent le cancer du sein, et au MIT Media Lab, elle a développé un appareil pour automatiser l'auscultation du stéthoscope. Avec le temps, ses recherches ont convergé vers cet organe le plus complexe et le moins compris: le cerveau humain. Elle a construit des systèmes d'IA modélisant les facettes de l'intelligence humaine et du traitement du langage humain. Elle est curieuse de savoir ce que nous allons faire à propos de la vision par ordinateur et participe à des conférences sur le sujet. -
Ifeoma Ozoma
Description: Ifeoma Ozoma est un expert américain en politique et un défenseur de l'équité. Son travail consiste à lutter contre la désinformation sur la santé et la responsabilité technologique. Elle est la fondatrice du cabinet de conseil Earthseed. Elle a reçu le prix Bold 2020. Elle pense qu'iIl n'y a pas de responsabilité technologique sans dénonciateurs technologiques. Il n'y a pas de responsabilité technologique sans les travailleurs technologiques. -
Will Knight
Description: Will Knight est un journaliste pour WIRED, couvrant l'intelligence artificielle. Il était auparavant rédacteur en chef au MIT Technology Review, où il a écrit sur les avancées fondamentales de l'IA et le boom de l'IA en Chine. Avant cela, il était rédacteur en chef et écrivain chez New Scientist. Il pense qu'il est fascinant que Baidu soit peut-être prêt à surenchérir sur Google pour le talent derrière une percée majeure dans l'IA en 2012. -
Dr Kate Crawford
Description: Kate est chercheuse à Microsoft Research (Social Media Collective) et cofondatrice et directrice de recherche à l'AI Now Institute de NYU, Ses recherches portent sur le changement social et les technologies des médias, en particulier sur l'intersection des humains, des appareils mobiles et des réseaux sociaux. Elle a publié des articles sur les cultures d'utilisation de la technologie et la manière dont les histoires des médias informent le présent. Elle a écrit un livre intitulé ATLAS OF AI: Power, Politics, and the Planetary Costs of Artificial qui traite des impacts de l'IA dans notre société. Elle pense qu'il y a un besoin urgent de réglementer la technologie de reconnaissance des émotions. -
Justin Hendrix
Description: Justin Hendrix est cofondateur et PDG de Tech Policy Press, une nouvelle entreprise médiatique à but non lucratif qui s'intéresse à l'intersection de la technologie et de la démocratie. Auparavant, il était directeur exécutif du NYC Media Lab. Il a passé plus d'une décennie chez The Economist dans des rôles tels que celui de vice-président, développement des affaires et innovation. Il est chercheur associé et professeur adjoint à la NYU Tandon School of Engineering. Il a informé la communauté AI que Facebook avait gratté 1 milliard de photos d'Instagram pour former son A.I. De plus, il a relayé les informations selon lesquelles les e-mails entre le NYPD et la startup controversée de reconnaissance faciale Clearview AI sont désormais dans le domaine public. -
Jenn Wortman Vaughan
Description: Elle est chercheuse à Microsoft Research, New York City, un laboratoire de recherche fondamentale collaboratif et interdisciplinaire. Elle passe maintenant son temps sur l'IA responsable - en particulier la transparence, l'interprétabilité et l'équité des systèmes d'IA - dans le cadre du groupe FATE de Microsoft et coprésidente du groupe de travail Aether de Microsoft sur la transparence.qui ont étudié ces interactions dans le contexte des marchés de prédiction et d'autres systèmes de crowdsourcing. Sa passion est pour l'IA qui augmente, plutôt que de remplacer, les capacités humaines. Une grande partie de son travail a été théorique - elle aime un beau modèle propre qui capture l'essence d'un problème et des garanties prouvables. Elle a commencé à incorporer plus d'expériences et même des méthodes qualitatives dans ses recherches afin de mieux comprendre le comportement humain dans les systèmes sociotechniques . Elle parle occasionnellement de problèmes de société liés à l'IA. Elle pense qu évaluer les systèmes d'IA pour les disparités de performance entre les groupes est plus difficile qu'il n'y paraît. -
Dr Mona Sloane
Description: Mona Sloane est une sociologue qui travaille sur les inégalités dans le contexte de la conception et de la politique de l'IA. Elle publie et parle fréquemment d'IA, d'éthique, d'équité et de politique dans un contexte mondial. elle est également Senior Research Scientist au NYU Center for Responsible AI, professeur auxiliaire à la Tandon School of Engineering de NYU.Elle pense que le moment est venu pour un dialogue transatlantique sur le risque de l'IA. Elle pense qu'aujourd'hui il n'y a pas de définition claire de «l'audit algorithmique». Elle met également en garde contre le risque de consacrer la technologie eugéniste dans une réglementation faible. -
Kathy Baxter
Description: Kathy, architecte principale de la pratique éthique de l'IA chez Salesforce, élabore des bonnes pratiques fondées sur la recherche pour sensibiliser les employés, les clients et l'industrie de Salesforce au développement d'une IA responsable. Elle collabore et s'associe avec des experts externes en IA et en éthique pour faire évoluer en permanence les politiques, pratiques et produits Salesforce. Elle aime avoir des conversations sur la responsabilité. Avant Salesforce, elle a travaillé chez Google, eBay et Oracle dans le domaine de la recherche sur l'expérience utilisateur. Son livre, «Comprendre vos utilisateurs», a été publiée en mai 2015. Kathy tien à jour ses rechercher sur le site einstein.ai/ethics. Elle pense que différents systèmes de valeurs nécessitent différents mécanismes pour une prise de décision équitable. Elle nous dit qu' essayer de remplacer la santé publique par un modèle d'apprentissage automatique n'a aucun sens.