articles liés
-
Checkout.com accélère son développement mondial en triplant sa valorisation, désormais à 15 milliards de dollars, avec une nouvelle levée de fonds de 450 millions de dollars en série C
-
Generali et le Groupe APICIL entrent au capital d’IZNES, plateforme paneuropéenne d'achat et de vente d'OPC* utilisant la technologie blockchain.
-
Astorg to invest in Third Bridge alongside founders
-
Digital Asset Management Firm Arca Raises $10 Million in Series A Funding
-
Squad, spécialiste de la cybersécurité et du DevOps, annonce l’entrée d’Abénex à son capital
Il est devenu banal d’éviter un embouteillage grâce à un système de navigation intelligent ou de recevoir des offres commerciales ciblées. Cela est rendu possible par l’analyse de mégadonnées, qui peut être utilisée par les systèmes d’IA. Si ces applications présentent des avantages évidents, les théories et techniques qui les sous-tendent ont cependant des implications éthiques et juridiques dont le grand public a rarement conscience.
Sous une apparente neutralité, à tout le moins, l’intelligence artificielle cache parfois des opérations très intrusives, notamment du fait de ses composantes que sont l’apprentissage automatique et l’apprentissage profond. Dans bien des domaines, il peut certes être très utile de fonder des décisions sur des calculs mathématiques, mais une trop grande dépendance envers l’IA – qui implique nécessairement de déterminer des modèles au-delà de ces calculs - risque d’être préjudiciable à ses utilisateurs, de causer des injustices et de restreindre les droits des personnes.
Telle que je la perçois, l’IA a des effets sur nombre des questions qui relèvent de mon mandat dans la mesure où son utilisation peut menacer plusieurs de nos droits de l’homme. Le fait que des décisions soient prises sur la base de ces systèmes, en l’absence de toute transparence, responsabilité ou garanties quant à leur conception, leur fonctionnement et la manière dont ils peuvent évoluer au fil du temps, aggrave le problème.
Suite :
https://www.coe.int/fr/web/commissioner/-/safeguarding-human-rights-in-the-era-of-artificial-intelligence
Sous une apparente neutralité, à tout le moins, l’intelligence artificielle cache parfois des opérations très intrusives, notamment du fait de ses composantes que sont l’apprentissage automatique et l’apprentissage profond. Dans bien des domaines, il peut certes être très utile de fonder des décisions sur des calculs mathématiques, mais une trop grande dépendance envers l’IA – qui implique nécessairement de déterminer des modèles au-delà de ces calculs - risque d’être préjudiciable à ses utilisateurs, de causer des injustices et de restreindre les droits des personnes.
Telle que je la perçois, l’IA a des effets sur nombre des questions qui relèvent de mon mandat dans la mesure où son utilisation peut menacer plusieurs de nos droits de l’homme. Le fait que des décisions soient prises sur la base de ces systèmes, en l’absence de toute transparence, responsabilité ou garanties quant à leur conception, leur fonctionnement et la manière dont ils peuvent évoluer au fil du temps, aggrave le problème.
Suite :
https://www.coe.int/fr/web/commissioner/-/safeguarding-human-rights-in-the-era-of-artificial-intelligence
Finyear - Daily News
Lisez gratuitement :
Le quotidien Finyear
- Sa newsletter quotidienne :
Recevez chaque matin par mail la newsletter Finyear, une sélection quotidienne des meilleures infos et expertises en Finance innovation, Finance Digitale, Cryptofinance.
- Sa lettre mensuelle Le Trésorier
Le quotidien Finyear
- Sa newsletter quotidienne :
Recevez chaque matin par mail la newsletter Finyear, une sélection quotidienne des meilleures infos et expertises en Finance innovation, Finance Digitale, Cryptofinance.
- Sa lettre mensuelle Le Trésorier