5 questions essentielles à se poser avant d’utiliser l’IA au travail
Une petite discussion plus fraîche avec votre potentiel collègue IA.
Bien que l’ère des assistants robots sensibles ne soit pas encore arrivée, l’IA tente rapidement de devenir votre prochain collègue.
Plus de la moitié des travailleurs américains utilisent désormais une forme d’IA dans leur travail. Selon une enquête internationale menée auprès de 5 000 employés par l’Organisation de coopération et de développement économiques (OCDE), environ 80 % des utilisateurs d’IA ont déclaré que l’IA avait amélioré leurs performances au travail, ce qui témoigne en grande partie d’une automatisation accrue. Pour certains, l’intégration éthique de l’IA est la principale préoccupation sur le lieu de travail en 2024.
Mais même si les partisans notent le potentiel des technologies d’IA pour améliorer et rationaliser des lieux de travail plus équitables – et il existe probablement des exemples d’IA déjà en jeu dans votre travail également – cela ne signifie pas que nous devrions tous nous précipiter pour intégrer l’IA dans notre travail. travail.
Cette même enquête de l’OCDE a également documenté la crainte persistante de pertes d’emploi et de baisse des salaires à mesure que l’IA s’enfonce plus profondément dans le paysage de l’emploi. Une autre enquête menée auprès des travailleurs américains par CNBC et SurveyMonkey a révélé que 42 % des employés étaient préoccupés par l’impact de l’IA sur leur travail, avec une tendance plus élevée pour ceux à faible revenu et pour les travailleurs de couleur.
Et avec la montée des escroqueries basées sur l’IA, le débat en cours sur la réglementation gouvernementale et les inquiétudes concernant la confidentialité en ligne (sans parler de la simple sursaturation des « nouvelles » versions de l’IA), il reste encore beaucoup d’inconnues en ce qui concerne l’avenir de l’IA. .
Il est préférable d’entrer dans le monde de l’IA au travail avec un peu d’appréhension – ou du moins avec quelques questions en poche.
De quel type d’IA parlons-nous exactement ?
Première étape : Familiarisez-vous avec l’intelligence artificielle au sens large. À mesure que le terme est devenu populaire, « Intelligence artificielle » est devenu une expression fourre-tout faisant davantage référence à une variété de technologies et de services qu’à un nom spécifique.
Cecily Mauran de Indigo Buzz définit l’intelligence artificielle comme un « terme général désignant une technologie capable d’automatiser ou d’exécuter certaines tâches conçues par un humain ». Elle note que ce que beaucoup appellent désormais l’IA est en réalité quelque chose de plus spécifique, connu sous le nom d’IA générative ou d’intelligence artificielle générale. L’IA générative, explique Mauran, est capable de « créer du texte, des images, des vidéos, de l’audio et du code en fonction des invites d’un utilisateur ». Cette utilisation a récemment été critiquée pour avoir produit des hallucinations (ou des faits inventés), diffusé des informations erronées et facilité des escroqueries et des contrefaçons profondes.
D’autres formes d’IA incluent des algorithmes de recommandation simples, des algorithmes plus complexes appelés réseaux de neurones et un apprentissage automatique plus large.
Comme le rapporte Saira Meuller pour Indigo Buzz, l’IA s’est déjà intégrée au lieu de travail (et à votre vie) de multiples façons, notamment grâce aux fonctionnalités prédictives de Gmail, au système de recommandation de LinkedIn et à la gamme d’outils Office de Microsoft.
Des choses aussi simples que les transcriptions en direct ou les sous-titres activés lors des visioconférences reposent sur l’IA. Vous pouvez également le rencontrer sous la forme d’algorithmes facilitant la collecte de données, au sein d’assistants vocaux sur vos appareils personnels ou dans vos logiciels de bureau, ou même sous forme d’apprentissage automatique proposant des suggestions orthographiques ou des traductions linguistiques.
Votre entreprise a-t-elle une politique en matière d’IA ?
Une fois que vous avez établi que l’outil d’IA ne relève pas d’un cas d’utilisation déjà utilisé dans votre travail quotidien et qu’il pourrait donc nécessiter une surveillance supplémentaire, il est temps de contacter la direction. Mieux vaut prévenir que guérir !
Nous espérons que votre entreprise aura mis en place des lignes directrices indiquant exactement quels types de services d’IA peuvent être intégrés à votre travail et comment ils doivent être utilisés, mais il y a de fortes chances que ce ne soit pas le cas – une enquête de 2023 du Conference Board a révélé que les trois quarts des entreprises ne disposaient toujours pas d’une politique organisationnelle en matière d’IA. S’il n’y a pas de règles, obtenez des éclaircissements auprès de votre responsable, et éventuellement même des équipes juridiques ou des ressources humaines, en fonction de la technologie que vous utilisez.
Utilisez uniquement des outils d’IA générative pré-approuvés par votre lieu de travail.
Dans une enquête mondiale menée auprès des travailleurs par la plateforme de gestion d’entreprise Salesforce, 28 % des travailleurs ont déclaré qu’ils intégraient des outils d’IA générative dans leur travail, mais seulement 30 % avaient reçu une formation sur l’utilisation appropriée et éthique de l’outil. Étonnamment, 64 % des 7 000 travailleurs ont déclaré faire passer leur travail d’IA générative pour le leur.
Sur la base du taux de réponse concernant l’utilisation non supervisée, l’équipe d’enquête a recommandé aux employés d’utiliser uniquement les outils et programmes d’IA générative approuvés par l’entreprise, et de ne jamais utiliser les données confidentielles de l’entreprise ou les données personnellement identifiables des clients dans les invites d’IA générative.
Même de grandes entreprises comme Apple et Google ont interdit l’utilisation de l’IA générative dans le passé.
Éléments à considérer avant d’utiliser un outil d’IA générative :
-
Confidentialité des données. Si vous utilisez l’IA générative, quel type d’informations connectez-vous à l’outil, comme un chatbot ou un autre LLM ? Ces informations sont-elles sensibles aux personnes avec lesquelles vous travaillez ou sont-elles exclusives à votre travail ? Les données sont-elles cryptées ou protégées de quelque manière que ce soit lorsqu’elles sont utilisées par l’IA ?
-
Problème de copyright. Si vous utilisez un système d’IA générative pour concevoir des concepts créatifs, où la technologie trouve-t-elle les données artistiques nécessaires pour entraîner son modèle ? Avez-vous le droit légal d’utiliser les images, la vidéo ou l’audio générés par l’IA ?
-
Précision. Avez-vous vérifié les informations fournies par l’outil d’IA ou repéré des hallucinations ? La technologie a-t-elle la réputation d’être imprécise ?
À qui servirait l’IA ?
Il est également important de distinguer la place de l’IA dans votre flux de travail quotidien et qui interagira avec les résultats génératifs de l’IA. Il y a une différence entre intégrer des outils d’IA tels que des chatbots ou des assistants dans vos propres tâches quotidiennes et remplacer une tâche entière par ceux-ci. Qui sera affecté par votre utilisation de l’IA, et cela pourrait-il constituer un risque pour vous ou vos clients ? La divulgation de l’utilisation de l’IA est une question à laquelle même les cabinets d’avocats n’ont pas de réponses claires, mais une majorité d’Américains estiment que les entreprises devraient être obligées de le faire.
chose à considérer :
-
Utilisez-vous un outil d’IA pour générer des idées uniquement pour votre propre processus de brainstorming ?
-
Votre utilisation de l’IA entraîne-t-elle une prise de décision pour vous, vos collègues ou vos clients ? Est-il utilisé pour suivre, surveiller ou évaluer les employés ?
-
Le contenu généré par l’IA sera-t-il vu par les clients ou par toute personne extérieure à l’entreprise ? Cela devrait-il leur être divulgué, et comment ?
Qui est en charge de l’IA ?
Vous avez obtenu le feu vert de votre entreprise et vous comprenez le type d’IA que vous utilisez, mais vous devez désormais prendre en compte des questions éthiques plus vastes.
De nombreux organismes de surveillance de l’IA soulignent que la ruée vers l’innovation dans le domaine a conduit au regroupement de quelques acteurs de grande technologie finançant et contrôlant la majorité du développement de l’IA.
L’institut de politique et de recherche en matière d’IA AI Now souligne que cela pourrait poser un problème lorsque ces entreprises ont leurs propres conflits et controverses. « Les modèles d’IA à grande échelle sont encore largement contrôlés par les grandes entreprises technologiques en raison des énormes ressources informatiques et de données dont ils ont besoin, et présentent également des préoccupations bien documentées concernant la discrimination, les vulnérabilités en matière de confidentialité et de sécurité, ainsi que les impacts environnementaux négatifs », a écrit l’institut dans un rapport d’avril 2023.
AI Now note également que de nombreux produits d’IA générative dits open source – une désignation qui signifie que le code source d’un logiciel est disponible et libre d’être utilisé ou modifié par le public – fonctionnent en réalité davantage comme des boîtes noires, ce qui signifie que les utilisateurs et les développeurs tiers ne peuvent pas voir le fonctionnement interne réel de l’IA et de ses algorithmes. AI Now appelle cela un amalgame de programmes open source et de politiques de libre accès.
Dans le même temps, l’absence de réglementation fédérale et le manque de clarté des politiques de confidentialité des données ont suscité des inquiétudes quant au développement non surveillé de l’IA. À la suite d’un décret sur l’IA du président Joe Biden, plusieurs éditeurs de logiciels ont accepté de soumettre des tests de sécurité à une surveillance fédérale avant leur publication, dans le cadre d’une campagne visant à surveiller l’influence étrangère. Mais les directives réglementaires standard sont encore en cours d’élaboration.
Vous voudrez peut-être prendre en compte le domaine de votre travail dans lequel vous travaillez, les partenariats de votre entreprise (et même son énoncé de mission) et tout conflit d’intérêts pouvant chevaucher l’utilisation de produits fabriqués par des développeurs d’IA spécifiques.
Choses à considérer:
-
Qui a construit l’IA ?
-
S’approvisionne-t-il à partir du travail d’une autre entreprise ou utilise-t-il une API, telle que les grands modèles linguistiques (LLM) d’OpenAI ?
-
Votre entreprise a-t-elle des relations commerciales conflictuelles avec le propriétaire de l’IA ?
-
Connaissez-vous les politiques de confidentialité de l’entreprise et comment elle stocke les données fournies aux outils d’IA générative ?
-
Le développeur d’IA accepte-t-il une quelconque forme de surveillance ?
L’IA pourrait-elle avoir des biais pertinents ?
Même les IA les plus intelligentes peuvent refléter les préjugés inhérents à leurs créateurs, aux algorithmes qu’ils construisent et aux données à partir desquelles elles s’approvisionnent. Dans le même rapport d’avril, AI Now rapporte que la surveillance humaine intentionnelle réitère souvent cette tendance, plutôt que de l’empêcher.
« Il n’existe pas de définition claire de ce qui constituerait une surveillance « significative », et les recherches indiquent que les personnes qui reçoivent des conseils sur des outils automatisés ont tendance à faire preuve de préjugés en matière d’automatisation ou de déférence envers les systèmes automatisés sans examen minutieux », a constaté l’organisation.
Dans un article pour The Conversation, Casey Fielder, chercheur en éthique technologique et en éducation, écrit que de nombreuses entreprises technologiques ignorent les répercussions sociales de l’utilisation de l’IA en faveur d’une révolution technologique.
Plutôt qu’une « dette technique » – une expression utilisée dans le développement de logiciels pour désigner les coûts futurs liés aux solutions précipitées et donc aux versions – les solutions d’IA peuvent s’accompagner de ce qu’elle appelle une « dette éthique ». Fielder explique que la méfiance à l’égard des systèmes d’IA se concentre moins sur les bogues que sur leur potentiel à amplifier « des préjugés et des stéréotypes nuisibles et sur les étudiants qui utilisent l’IA de manière trompeuse. Nous entendons parler de problèmes de confidentialité, de personnes trompées par la désinformation, d’exploitation par le travail et de craintes quant à la rapidité avec laquelle les emplois humains » peuvent être remplacés, pour n’en nommer que quelques-uns. Ces problèmes ne sont pas des problèmes logiciels. Réaliser qu’une technologie renforce l’oppression ou les préjugés est très différent d’apprendre qu’un bouton sur un site Web ne fonctionne pas. «
Certaines entreprises qui disposent de services automatisés utilisant des systèmes d’IA, comme les prestataires d’assurance maladie qui utilisent des algorithmes pour déterminer les soins ou la couverture des patients, ont fait face à des conséquences à la fois sociales et juridiques. En réponse aux poursuites intentées par des patients alléguant que l’utilisation d’un système d’IA constituait une arnaque, le gouvernement fédéral a précisé que la technologie ne pouvait pas être utilisée pour déterminer la couverture sans surveillance humaine.
Dans les milieux éducatifs, les étudiants et les enseignants ont été accusés d’utiliser l’IA d’une manière éthiquement grise, soit pour plagier les devoirs, soit pour punir injustement les étudiants sur la base de préjugés algorithmiques. Ces erreurs ont également des conséquences professionnelles.
« Tout comme la dette technique peut résulter de tests limités au cours du processus de développement, la dette éthique résulte de la non-prise en compte des conséquences négatives possibles ou des dommages sociétaux », écrit Fielder. « Et avec la dette éthique en particulier, ceux qui la contractent sont rarement ceux qui la payent en fin de compte. »
Même si votre lieu de travail peut sembler représenter des enjeux bien moindres qu’un régime fédéral d’assurance maladie ou que l’éducation des générations futures, la dette éthique que vous pourriez contracter en utilisant l’IA est toujours importante.