Accéder au contenu.
Menu Sympa

educ - Re: [EDUC] application d'évaluation de code

Objet : Liste de discussion du groupe de travail Éducation et logiciels libres de l'April (liste à inscription publique)

Archives de la liste

Re: [EDUC] application d'évaluation de code


Chronologique Discussions  
  • From: Olivier Gutierrez <oliviergtz AT free.fr>
  • To: educ AT april.org
  • Subject: Re: [EDUC] application d'évaluation de code
  • Date: Fri, 4 Nov 2022 10:56:42 +0100

ah, c'est super intéressant !!!

par contre je n'ai pas compris comment fonctionne le bouton "valider", ou je ne suis pas arrivé à le faire fonctionner... j'ai créé une fonction dans la console, je l'ai testée en lui donnant des arguments, ok mais le bouton ne produit rien...

Quelques questions aussi :

- comment est exécuté le code produit ? c'est sur le serveur qui héberge le site ?

- à quoi renvoie l'annotation @env.macro dans le fichier main.py ?


Super travail en tous cas, c'est très inspirant :-)

Olivier

Le 03/11/2022 à 17:16, Vincent-Xavier JUMEL (April) a écrit :
Bonjour,

depuis quelques mois, nous (collectif d'enseignante et enseignant d'informatique de France) développons un site d'autoévaluation que nous pensons simple à mettre en œuvre. Il ne supporte que Python comme langage et ne nécessite qu'un simple navigateur. Aucun stockage des résultats d'élève n'est fourni (et nous ne pensons pas développer cette fonctionnalité dans l'immédiat).

Pour la conception des exercices, le plus simple actuellement est de « forker » un dépôt git (https://gitlab.com/e-nsi/pratique/), ce qui permet de générer le site statique https://e-nsi.gitlab.io/pratique/.

Un exercice est un dossier qui contient :
- un sujet (sujet.md) contenant la macro {{ IDE('exo') }}
- un fichier avec le code pour débuter exo.py et quelques tests avec assert pour guider l'élève vers l'attendu
- un fichier avec le lien vers la correction {{ IDE('exo_corr') }}
- un fichier avec le corrigé exo_corr.py
- un fichier avec des tests exo_test.py reprenant les tests de exo.py et ajoutant des tests suppélementaires, éventuellement cachés.

Le 2022-11-01 19:40, Olivier Gutierrez a écrit :
Bonjour tout le monde,

On vient de me parler de jdoodle.com/guru qui est un site en ligne
mettant à disposition un IDE (il en existe pas mal...) mais surtout un
dispositif pour évaluer le code écrit par un étudiant, par exemple en
Python. Le test en question peut exécuter son code et indiquer s'il
répond correctement à des cas de test écrits par l'examinateur.

J'ai été séduit par l'idée mais cet outil a le défaut qu'on doit
saisir toutes les questions à poser une par une via un formulaire et
rien n'est dit sur le stockage dans le temps des évaluations qu'on
pourrait créer (mais il y a des options payantes).

Je voulais savoir si vous connaissez un outil open source qui remplit
les mêmes fonctionnalités,

merci à toutes et à tous,

Olivier

https://www.jdoodle.com/guru


--
Pour vous désinscrire de cette liste :
https://listes.april.org/wws/sigrequest/educ

Pour connaître la configuration de la liste, gérer votre abonnement à
la liste educ et vos informations personnelles :
https://listes.april.org/wws/info/educ


--
Pour vous désinscrire de cette liste :
https://listes.april.org/wws/sigrequest/educ

Pour connaître la configuration de la liste, gérer votre abonnement à la
liste educ et vos informations personnelles :
https://listes.april.org/wws/info/educ





Archives gérées par MHonArc 2.6.19+.

Haut de le page