Intelligence artificielle et éducation : une liste de lectures – JSTOR Daily

Le L’icône indique un accès gratuit à la recherche liée sur JSTOR.

Comment l’éducation devrait-elle évoluer pour aborder, intégrer ou remettre en question les systèmes d’IA d’aujourd’hui, en particulier les grands modèles de langage puissants ? Quel rôle les éducateurs et les universitaires devraient-ils jouer pour façonner l’avenir de l’IA générative ? La sortie de ChatGPT en novembre 2022 a déclenché une explosion d’actualités, d’articles d’opinion et de publications sur les réseaux sociaux abordant ces questions. Pourtant, nombreux sont ceux qui ne sont pas conscients de l’ensemble des travaux universitaires actuels et historiques qui offrent clarté, substance et nuances pour enrichir le discours.

Lier les termes IA et éducation invite à une constellation de discussions. Cette sélection d’articles n’est pas exhaustive, mais elle comprend des explications sur les concepts de l’IA et fournit un contexte historique pour les systèmes actuels. Il décrit une gamme d’applications éducatives possibles ainsi que les impacts négatifs, tels que la perte d’apprentissage et l’augmentation des inégalités. Certains articles abordent des questions philosophiques sur l’IA en relation avec l’apprentissage, la pensée et la communication humaine. D’autres aideront les éducateurs à préparer les élèves à la participation civique autour de préoccupations telles que l’intégrité de l’information, les impacts sur l’emploi et la consommation d’énergie. D’autres encore soulignent les droits des enseignants et des étudiants en matière d’IA et exhortent les enseignants à partager leur expertise dans les discussions sociétales et industrielles sur l’avenir de l’IA.

Annonce d'adhésion quotidienne à JSTOR

Nabeel Gillani, Rebecca Eynon, Catherine Chiabaut et Kelsey Finkel, Déballer la boîte noire de l’IA dans l’éducation, Technologie éducative et société 26, non. 1 (2023) : 99111.

Qu’on en soit conscient ou non, l’IA était déjà répandue dans l’éducation avant ChatGPT. Nabeel Gillani et coll. décrire les applications de l’IA telles que l’analyse de l’apprentissage et les systèmes d’apprentissage adaptatif, les communications automatisées avec les étudiants, les systèmes d’alerte précoce et l’évaluation automatisée de l’écriture. Ils cherchent à aider les éducateurs à développer leurs connaissances sur les capacités et les risques de ces systèmes en fournissant une introduction accessible à l’apprentissage automatique et à l’apprentissage profond ainsi qu’à l’IA basée sur des règles. Ils présentent un point de vue prudent, appelant à un examen minutieux des biais de ces systèmes et de la répartition inéquitable des risques et des avantages. Ils espèrent que les ingénieurs collaboreront étroitement avec les éducateurs au développement de tels systèmes.

Jrgen Rudolph et al. donner un aperçu pratique des implications de ChatGPT pour l’enseignement supérieur. Ils expliquent la nature statistique des grands modèles de langage en racontant l’histoire d’OpenAI et ses tentatives pour atténuer les biais et les risques dans le développement de ChatGPT. Ils illustrent la manière dont ChatGPT peut être utilisé avec des exemples et des captures d’écran. Leur analyse documentaire montre l’état de l’intelligence artificielle dans l’éducation (AIEd) en janvier 2023. Une longue liste de défis et d’opportunités aboutit à un ensemble de recommandations qui mettent l’accent sur une politique explicite ainsi que sur l’élargissement de l’enseignement de la culture numérique pour inclure l’IA.

Emily M. Bender, Timnit Gebru, Angela McMillan-Major et Shmargaret Shmitchell, Sur les dangers des perroquets stochastiques : les modèles linguistiques peuvent-ils être trop grands ? , FAccT 21 : Actes de la conférence ACM 2021 sur l’équité, la responsabilité et la transparence (mars 2021) : 610623.

La compréhension des étudiants et des professeurs des risques et des impacts des grands modèles linguistiques est essentielle à la maîtrise de l’IA et à la participation civique autour des politiques en matière d’IA. Cet article extrêmement influent détaille les impacts négatifs documentés et probables du mode de développement actuel, non transparent et gourmand en données et en ressources, de ces modèles. Bender et coll. souligner la manière dont ces coûts seront probablement supportés de manière disproportionnée par les groupes marginalisés. Ils appellent à la transparence sur la consommation d’énergie et le coût de ces modèles ainsi qu’à la transparence sur les données utilisées pour les entraîner. Ils préviennent que les modèles perpétuent et même amplifient les préjugés humains et que l’apparente cohérence des résultats de ces systèmes peut être utilisée à des fins malveillantes, même si elle ne reflète pas une réelle compréhension.

Les auteurs soutiennent que la participation inclusive au développement peut encourager des voies de développement alternatives moins gourmandes en ressources. Ils soutiennent en outre que les applications bénéfiques pour les groupes marginalisés, telles que les systèmes améliorés de reconnaissance automatique de la parole, doivent être accompagnées de plans visant à atténuer les dommages.

Erik Brynjolfsson soutient que lorsque nous considérons l’intelligence artificielle comme visant à se substituer à l’intelligence humaine, nous manquons l’occasion de nous concentrer sur la manière dont elle peut compléter et étendre les capacités humaines. Brynjolfsson appelle à une politique qui déplace les incitations au développement de l’IA de l’automatisation vers l’augmentation. L’automatisation est plus susceptible d’entraîner la suppression d’emplois de niveau inférieur et une augmentation des inégalités. Il oriente les éducateurs vers l’augmentation comme cadre de réflexion sur les applications de l’IA qui facilitent l’apprentissage et l’enseignement. Comment pouvons-nous créer des incitations pour que l’IA soutienne et étende ce que font les enseignants plutôt que de les remplacer ? Et comment pouvons-nous encourager les élèves à utiliser l’IA pour approfondir leur réflexion et leur apprentissage plutôt que de l’utiliser pour sauter l’apprentissage ?

Brynjolfssons se concentre sur l’IA alors que l’augmentation converge avec l’informaticien Microsoft Kevin Scott qui se concentre sur l’assistance cognitive. En éloignant le débat sur l’IA des visions de systèmes autonomes ayant leurs propres objectifs, Scott soutient qu’à court terme, l’IA servira à aider les humains dans leur travail cognitif. Scott situe cette aide par rapport à l’évolution des définitions historiques du travail et à la manière dont les outils de travail incarnent des connaissances généralisées sur des domaines spécifiques. Il est intrigué par la façon dont les réseaux neuronaux profonds peuvent représenter la connaissance du domaine de nouvelles manières, comme le montrent les capacités de codage inattendues offertes par le modèle de langage GPT-3 d’OpenAI, qui ont permis à des personnes ayant moins de connaissances techniques de coder. Son article peut aider les enseignants à encadrer les discussions sur la manière dont les étudiants devraient acquérir des connaissances et sur les connaissances qui sont encore pertinentes dans des contextes où l’assistance de l’IA est presque omniprésente.

Laura D. Tyson et John Zysman, Automatisation, IA et travail, Dédale 151, non. 2 (2022) : 25671.

Comment les enseignants peuvent-ils préparer les étudiants aux futurs environnements de travail intégrés à l’IA et les conseiller sur la manière dont les spécialisations et les parcours professionnels peuvent être affectés par l’automatisation de l’IA ? Et comment les enseignants peuvent-ils préparer les étudiants à participer aux discussions sur la politique gouvernementale autour de l’IA et du travail ? Laura Tyson et John Zysman soulignent l’importance de la politique pour déterminer comment les gains économiques dus à l’IA sont répartis et dans quelle mesure les travailleurs résistent aux perturbations dues à l’IA. Ils observent que les tendances récentes en matière d’automatisation et de travail à la demande ont exacerbé les inégalités et réduit l’offre de bons emplois pour les travailleurs à revenus faibles et moyens. Ils prédisent que l’IA intensifiera ces effets, mais ils soulignent la manière dont la négociation collective, l’assurance sociale et la protection des travailleurs à la demande ont atténué ces impacts dans des pays comme l’Allemagne. Ils soutiennent que de telles interventions peuvent servir de modèles pour aider à encadrer les discussions sur les politiques de travail intelligentes pour une ère d’IA inclusive.

Les considérations des enseignants sur l’intégrité académique et les textes sur l’IA peuvent s’appuyer sur des discussions parallèles sur l’authenticité et l’étiquetage du contenu sur l’IA dans d’autres contextes sociétaux. L’intelligence artificielle a rendu les faux sons, vidéos et images ainsi que le texte généré beaucoup plus difficiles à détecter en tant que tels. Todd Helmus examine ici les conséquences sur les systèmes politiques et les individus en examinant la manière dont ceux-ci peuvent et ont été utilisés pour promouvoir la désinformation. Il réfléchit aux moyens d’identifier les deepfakes et d’authentifier la provenance des vidéos et des images. Helmus plaide en faveur d’une action réglementaire, d’outils de contrôle journalistique et d’efforts généralisés pour promouvoir l’éducation aux médias. En plus d’éclairer les discussions sur l’authenticité dans les contextes éducatifs, ce rapport pourrait nous aider à façonner les programmes pour enseigner aux étudiants les risques des deepfakes et de l’IA non étiquetée.

Les étudiants, par définition, sont engagés dans le développement de leurs capacités cognitives ; leur compréhension de leur propre intelligence est en évolution et peut être influencée par leurs interactions avec les systèmes d’IA et par le battage médiatique de l’IA. Dans sa critique de Le mythe de l’intelligence artificielle : pourquoi les ordinateurs ne peuvent pas penser comme nous par Erik J. Larson, William Hasselberger prévient qu’en surestimant la capacité de l’IA à imiter l’intelligence humaine, nous dévalorisons l’humain et négligeons les capacités humaines qui font partie intégrante de la prise de décision, de la compréhension et du raisonnement de la vie quotidienne. Hasselberger fournit des exemples de raisonnements académiques et quotidiens de bon sens qui restent hors de portée de l’IA. Il donne un aperçu historique des débats autour des limites de l’intelligence artificielle et de ses implications pour notre compréhension de l’intelligence humaine, citant des personnalités comme Alan Turing et Marvin Minsky ainsi que des discussions contemporaines sur les modèles linguistiques basés sur les données.

Gwo-Jen Hwang et Nian-Shing Chen sont enthousiasmés par les avantages potentiels de l’intégration de l’IA générative dans l’éducation. Ils décrivent une variété de rôles qu’un grand modèle de langage comme ChatGPT pourrait jouer, de l’étudiant au tuteur en passant par l’expert du domaine et l’administrateur. Par exemple, les enseignants peuvent demander aux étudiants d’enseigner ChatGPT sur un sujet. Hwang et Chen fournissent des exemples de transcriptions de session ChatGPT pour illustrer leurs suggestions. Ils partagent des techniques d’incitation pour aider les éducateurs à mieux concevoir des stratégies d’enseignement basées sur l’IA. Dans le même temps, ils s’inquiètent de la dépendance excessive des étudiants à l’égard de l’IA générative. Ils exhortent les enseignants à inciter les élèves à l’utiliser de manière critique et à réfléchir à leurs interactions avec l’IA. Hwang et Chen n’abordent pas les préoccupations concernant les biais, l’inexactitude ou la fabrication, mais ils appellent à des recherches plus approfondies sur l’impact de l’intégration de l’IA générative sur les résultats d’apprentissage.

Lauren Goodlad et Samuel Baker, Désormais les sciences humaines peuvent perturber l’IA, Livres publics (20 février 2023).

Lauren Goodlad et Samuel Baker situent à la fois les préoccupations en matière d’intégrité académique et les pressions exercées sur les enseignants pour qu’ils adoptent l’IA dans le contexte des forces du marché. Ils fondent leur discussion sur les risques de l’IA sur une compréhension technique approfondie des limites des modèles prédictifs à imiter l’intelligence humaine. Goodlad et Baker exhortent les éducateurs à communiquer le but et la valeur de l’enseignement par l’écriture pour aider les élèves à s’engager dans la pluralité du monde et à communiquer avec les autres. Au-delà de la salle de classe, affirment-ils, les enseignants devraient remettre en question les récits de l’industrie technologique et participer au débat public sur la réglementation et l’avenir de l’IA. Ils considèrent l’enseignement supérieur comme résilient : le scepticisme universitaire face aux précédentes vagues de battage médiatique autour des MOOC, par exemple, suggère que les enseignants ne seront probablement pas éblouis ou terrifiés à l’idée de se soumettre à l’IA. Goodlad et Baker espèrent que nous prendrons plutôt notre place en tant qu’experts qui devraient contribuer à façonner l’avenir du rôle des machines dans la pensée et la communication humaines.

Comment le domaine de l’éducation peut-il donner la priorité aux besoins des étudiants et des universitaires alors que nous façonnons notre réponse à l’IA, la manière dont nous l’enseignons et la manière dont nous pourrions l’intégrer dans la pédagogie ? Le manifeste de Kathryn Conrad s’appuie sur et étend le plan 2022 du Bureau de la politique scientifique et technologique de l’administration Biden pour une Déclaration des droits de l’IA. Conrad soutient que les éducateurs devraient participer aux politiques institutionnelles sur l’IA et avoir accès au développement professionnel autour de l’IA. Les instructeurs devraient être en mesure de décider si et comment intégrer l’IA dans la pédagogie, en basant leurs décisions sur les recommandations d’experts et des recherches évaluées par des pairs. Conrad décrit les droits des étudiants concernant les systèmes d’IA, y compris le droit de savoir quand l’IA est utilisée pour les évaluer et le droit de demander une autre évaluation humaine. Ils méritent des conseils détaillés de la part d’un instructeur sur les politiques relatives à l’utilisation de l’IA, sans crainte de représailles. Conrad soutient que les étudiants devraient pouvoir faire appel de toute accusation de mauvaise conduite académique impliquant l’IA, et qu’ils devraient se voir proposer des alternatives à toute mission basée sur l’IA qui pourrait exposer leur travail créatif à un risque d’exposition ou d’utilisation sans compensation. Les droits légaux des étudiants et des éducateurs doivent être respectés dans toute application éducative de systèmes génératifs automatisés.


Soutenez JSTOR quotidiennement ! Rejoignez notre nouveau programme d’adhésion sur Patreon dès aujourd’hui.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepteLire la suite