Résumé : Les axiomes sont des énoncés admis comme vrais, alors que les théorèmes sont des énoncés démontrés à partir d'autres résultats. L'un des grands problèmes en géométrie est de savoir comment déterminer les axiomes





télécharger 31.93 Kb.
titreRésumé : Les axiomes sont des énoncés admis comme vrais, alors que les théorèmes sont des énoncés démontrés à partir d'autres résultats. L'un des grands problèmes en géométrie est de savoir comment déterminer les axiomes
date de publication27.02.2020
taille31.93 Kb.
typeRésumé
d.20-bal.com > documents > Résumé

Master 1 – UJF – Université Grenoble 1

Histoire et épistémologie des mathématiques




  1. Articles d’épistémologie et de didactique des mathématiques


Arsac G. (1995) Vérité des axiomes et des théorèmes en géométrie, Vérification et démonstration, Petit x n° 37, p. 5-33.

Résumé :

Les axiomes sont des énoncés admis comme vrais, alors que les théorèmes sont des énoncés démontrés à partir d'autres résultats. L'un des grands problèmes en géométrie est de savoir comment déterminer les axiomes.

L'enseignement de la géométrie au collège se base sur l'intuition acquise en classes de 6ème et 5ème et sur l'usage expérimental des instruments pour aboutir ensuite à un raisonnement plus rigoureux ; il s'agit d'apprendre aux élèves à acquérir certains réflexes comme "Quelles hypothèses a-t-on ?", "De quels outils dispose-t-on ?", "Que veut-on démontrer ?".

D'où le problème pour l'enseignant de savoir quelles propriétés faire admettre comme vraies et de les faire accepter comme tel par les élèves.

S'en suivent des expériences sur l'inégalité triangulaire : les élèves ont tendance à utiliser le dessin comme une preuve ; même lorsqu'ils ont réussi à mettre en évidence une condition nécessaire d'existence du triangle. On constate que les élèves ont du mal à tracer un triangle aplati.

Le but de ces expériences est de faire accepter la règle suivante : "en géométrie, un dessin ne suffit pas à conclure.
Barbin E. (2001) Qu'est-ce que faire de la géométrie ? Repères IREM n° 43, pp. 59-83

Résumé :

Le point de vue de l'article est celui de "l'histoire épistémologique", lue en termes non pas de tradition et de développement, mais de ruptures et de différences. Les "actes de pensée" géométriques ne sont pas les mêmes à différentes époques, or l'élève doit passer sans vraiment de transition de figures dessinées à une démonstration logique sur des figures représentant des objets idéaux.

En les comparant aux méthodes pratiquées dans l'enseignement, l'auteur analyse des démonstrations du théorème de Pythagore chez Euclide et chez Liu Hui, montre comment la méthode de Descartes bouleverse la manière dont le géomètre regarde les figures, montre les apports de Bernard Lamy et d'Antoine Arnauld, puis les méthodes de Monge, Poncelet et Hadamard.

En conclusion le point de vue est de privilégier "l'acte de pensée" , ce qui va à l'encontre d'une distinction entre un savoir et des savoir-faire, et disqualifie la entre un savoir savant et un savoir enseigné. Celui qui résout un problème mathématique sait et sait faire, l'acte de pensée est le même qu'il soit savant ou débutant.
Cartier L. (2008) A propos du théorème d'Euler et des parcours eulériens dans les graphe, Petit x n° 75, p. 27-53.

Résumé :

Cet article traite un problème classique de théorie des graphes : la recherche de parcours eulériens. Cette question peut sembler très connue, les"ponts de Königsberg" par exemple, sont présents autant dans l'enseignement qu'en vulgarisation des mathématiques. Ils semblent contenir une modélisation sous forme de graphe qui va de soi, pourtant deux types de graphes apparaissent régulièrement dans les classes. Des éléments de preuve l'accompagnent souvent, pouvant faire croire que la résolution du problème est simple. Or, le travail de preuve que l'on peut entreprendre avec un tel sujet n'est pas trivial et un travail mathématique conséquent peut avoir lieu à l'occasion de sa présentation en classe. L'auteur montre des éléments sur l'article fondateur d'Euler, en particulier le fait qu'Euler n'a pas prouvé le théorème qu'il a proposé, des pistes pour le présenter en classe, les difficultés qui peuvent alors émerger et les mathématiques qu'il permet d'aborder, que ce soit en option de Terminale ES ou dans d'autres classes.
*Chevallard Y. (1991) Autour de l'enseignement de la géométrie, Petit x n° 27, 1991, p. 41-76.

Résumé :

Ce texte correspond à un dossier destiné à des professeurs de collège réunis dans le cadre d'un stage de formation sur la mise en place des nouveaux programmes de mathématiques en 1er cycle. L'article est constitué de deux parties :

- "La géométrie et son enseignement comme problèmes" amorce et développe des questions fondamentales

- "La notion de construction géométrique comme problème", et selon les auteurs, se donne comme "une illustration du phénomène .... de l'intrication du didactique et du mathématique."
Dias T., Durand-Guerier V. (2005) Expérimenter pour apprendre en mathématiques. Repères 60. pp 61-78.

Résumé :

Dans cet article, les auteurs soutiennent l'intérêt et la possibilité de concevoir des situations d'apprentissage mettant en œuvre le recours à l'expérience dans la perspective de favoriser l'accès aux connaissances mathématiques pour le plus grand nombre d'apprenants. Dans l'introduction, ils rappelent que la question de la dimension expérimentale et ses liens avec la possibilité d'une appropriation des notions mathématiques par le plus grand nombre d'élèves n'est pas nouvelle dans l'enseignement français. La possibilité d'aborder cette question en géométrie des solides s'appuie sur leur expérience de formateurs pour les professeurs du premier degré, où le travail de réconciliation avec les mathématiques s'avère particulièrement crucial. Le choix des solides de Platon est motivé par l'intérêt mathématique du problème de leur existence et de leur nombre, auquel s'ajoute leur valeur culturelle et symbolique. Une brève étude historique et épistémologique des polyèdres réguliers convexes nourrit leur analyse a priori et leur permet de fonder leur proposition d'une situation d'apprentissage en géométrie des solides faisant une large place à la démarche expérimentale. La situation analysée est proposée suivant les modalités du problème ouvert dans le cadre d'un stage de formation continue pour des enseignants spécialisés du premier degré ; elle permet de s'interroger sur la possibilité de réaliser un polyèdre régulier convexe avec trois hexagones réguliers, possibilité qui se heurte dans le monde sensible aux contraintes du réel et est liée à la possibilité de paver le plan avec des hexagones réguliers. L'analyse d'un débat provenant d'extraits d'un corpus prélevé dans le cadre de cette session de formation d'enseignants spécialisés permet d'attester de ce va-et-vient entre les objets sensibles et les objets théoriques qui caractérise la démarche expérimentale.
*Gascon J. (1995) Un nouveau modèle de l'algèbre élémentaire comme alternative à l'arithmétique généralisée. Petit x n°37, p. 43-63.

Résumé :

L'auteur de cet article présente ce qu'il appelle le "modèle spécifique" dont l'objectif principal est de fournir une explication plus complète des phénomènes didactiques qui ont déjà été mis en évidence.

Voici le plan :

- Le besoin d'expliciter le modèle épistémologique utilisé

- L'interprétation de l'algèbre élémentaire comme arithmétique généralisée

- Vers un nouveau modèle de l'algèbre élémentaire

- Ebauche d'un nouveau modèle de l'algèbre élémentaire

- Indices de la capacité explicative du nouveau modèle

Gilbert T. (1993) L'enseignement de la continuité et de la dérivabilité en analyse non-standard. Repères 13. pp 89-110.

Résumé

Cet article pose d'une part le problème de savoir dans quelle mesure l'apprentissage de l'analyse peut être facilité par celui de l'analyse non standard, d'autre part de savoir si l'enseignement de l'analyse non standard peut être abordé au lycée à travers deux directions : la continuité et la dérivabilité.
Henry M. (2009) Emergence de la probabilité et enseignement : définition classique, approche fréquentiste et modélisation. Repères IREM n° 75. pp 76-89

Résumé :

L'introduction à la rentrée 2008 de la notion de probabilité en classe de troisième par une double approche classique et fréquentiste comme initiation à l'aléatoire, était attendue depuis des années. Cet enseignement permettra des développements plus approfondis de celui de la statistique au lycée, afin de prendre en compte une pratique sociale devenue omniprésente.

Un des enjeux actuels de la formation des professeurs de collège est de faire appréhender cette dualité de la probabilité, entre valeur issue d'un calcul a priori quand les conditions le permettent et estimation a posteriori par l'observation expérimentale des fréquences, quand celle-ci est possible. La clarification de ce lien passe par une compréhension en profondeur de la loi des grands nombres sous sa forme élémentaire du théorème de Bernoulli.

Dans une première partie, l'auteur apporte quelques éclairages historiques montrant que l'usage opératoire de la notion de probabilité au 17ème siècle, suite à la correspondance de Pascal et Fermat, a précédé les premières définitions du 18ème par De Moivre, D'Alembert et Condorcet, avant que son introduction dans le champ des objets mathématiques soit institutionnalisée par Laplace au début du 19ème siècle. Historiquement, comme l'avait déjà indiqué Jacques Bernoulli dans Ars Conjectandi publié en 1713, une telle définition s'est heurtée à la dualité intrinsèque de cette notion, avant qu'une synthèse puisse voir le jour dans le cadre de la modélisation des phénomènes aléatoires, au sein de la théorie mathématique fondée par Andrei Kolmogorov en 1933 et développée au cours du 20ème siècle.

Dans la deuxième partie, l'auteur fait un examen critique des tentatives de définitions "fréquentistes", en soulignant les questions de nature épistémologiques qu'elles posent ainsi que les difficultés didactiques qu'elles engendrent. Retraçant les grandes lignes des programmes actuels des classes du second cycle des lycées, il explicite le point de vue de la modélisation adopté par les programmes des années 2000. Il conclut par quelques remarques sur les formulations adoptées dans le programme de troisième.
*Lombardi H. (1997) Le raisonnement par l'absurde. Repères IREM n° 29. pp.27-42

Résumé :

L'introduction à la rentrée 2008 de la notion de probabilité en classe de troisième par une double approche classique et fréquentiste comme initiation à l'aléatoire, était attendue depuis des années. Cet enseignement permettra des développements plus approfondis de celui de la statistique au lycée, afin de prendre en compte une pratique sociale devenue omniprésente.

Un des enjeux actuels de la formation des professeurs de collège est de faire appréhender cette dualité de la probabilité, entre valeur issue d'un calcul a priori quand les conditions le permettent et estimation a posteriori par l'observation expérimentale des fréquences, quand celle-ci est possible. La clarification de ce lien passe par une compréhension en profondeur de la loi des grands nombres sous sa forme élémentaire du théorème de Bernoulli.

Dans une première partie, l'auteur apporte quelques éclairages historiques montrant que l'usage opératoire de la notion de probabilité au 17ème siècle, suite à la correspondance de Pascal et Fermat, a précédé les premières définitions du 18ème par De Moivre, D'Alembert et Condorcet, avant que son introduction dans le champ des objets mathématiques soit institutionnalisée par Laplace au début du 19ème siècle. Historiquement, comme l'avait déjà indiqué Jacques Bernoulli dans Ars Conjectandi publié en 1713, une telle définition s'est heurtée à la dualité intrinsèque de cette notion, avant qu'une synthèse puisse voir le jour dans le cadre de la modélisation des phénomènes aléatoires, au sein de la théorie mathématique fondée par Andrei Kolmogorov en 1933 et développée au cours du 20ème siècle.

Dans la deuxième partie, l'auteur fait un examen critique des tentatives de définitions "fréquentistes", en soulignant les questions de nature épistémologiques qu'elles posent ainsi que les difficultés didactiques qu'elles engendrent. Retraçant les grandes lignes des programmes actuels des classes du second cycle des lycées, il explicite le point de vue de la modélisation adopté par les programmes des années 2000. Il conclut par quelques remarques sur les formulations adoptées dans le programme de troisième.
*Mizony M. (2006) Relations entre physique et mathématique : un problème épistémologique. Sous-titre : L'héritage de Poincaré : de l'éther à la modélisation. Repères IREM n° 64. pp. 89-111

Résumé :

Nous examinons le rôle, la fonction des mathématiques en physique, en mécanique et dans les autres sciences. Un schéma de modélisation d'un domaine phénoménal est présenté et illustré par des exemples. Dans la lignée de Poincaré, nous montrons enfin qu'il y a toujours une multiplicité de modélisations d'un même domaine phénoménal, modélisations conceptuellement différentes et pourtant équivalentes sur les plans mathématique et observationnel.

Nous analysons les relations entre physique et mathématique d'un point de vue épistémologique. Nous sommes confrontés d'emblée au pluralisme théorique, défendu par Poincaré, avec deux modélisations possibles d'abord de la radioactivité puis de la cosmologie. Dans chaque cas nous analysons et schématisons les liens entre le domaine des phénomènes physiques et les deux modélisations de ce domaine, ce qui permet de montrer où se situe le nécessaire "compagnonnage" du mathématicien et du physicien, et où se situe la spécificité des deux disciplines. C'est l'occasion de nous engager dans une réflexion sur la différence essentielle entre domaine de phénomènes et espace mathématique de représentation de ce domaine, réflexion dont nous pensons qu'elle devrait faire partie de la formation initiale de tout enseignant de mathématiques, de physique et de philosophie.
Perrin D. (2007) L'expérimentation en mathématiques. Petit x n° 73, p.6-34.

Résumé :

Dans cet article issu d'une conférence donnée au colloque de la COPIRELEM en 2006 à Dourdan, l'auteur montre sur plusieurs exemples pris en arithmétique, en géométrie et en analyse, que l'activité d'expérimentation est une partie essentielle de la recherche d'un problème mathématique, à tous les niveaux. Il épilogue sur ces exemples les diverses phases d'une démarche expérimentale en mathématiques : expérience consistant en l'examen non trivial et, si possible, générique, observation de l'exemple et formulation de conjectures, tentative de preuve des conjectures, contre expérience menant éventuellement à un contre exemple et à une remise en cause des conjectures, nouvelles conjectures et nouvelles tentatives de preuve, etc. Il évoque les moyens de cette expérimentation, et notamment l'utilisation de la calculatrice et de l'ordinateur. Enfin on discute du rôle de l'erreur dans ce processus.
Pichard J.F. (1998) Approche épistémologique et diverses conceptions de la probabilité, Repères IREM n° 32. pp. 5-24

Résumé

Cet article indique quelques unes des conceptions et interprétations de la probabilité, et leur place dans l'évolution historique de la théorie. La diversité d'interprétations est la source des difficultés d'une définition de la probabilité lorsqu'on sort du cadre axiomatique et que l'on veut utiliser cette théorie pour modéliser la réalité.

La probabilité est la notion de base de la théorie probabiliste. On comprendra mieux ses diverses interprétations en la replaçant dans son évolution historique et dans le cadre général probabiliste et statistique, dont une esquisse est donnée dans la frise historique qui figure à la suite de l'article.
Sierpnska Anna, (1085) Obstacles épistémologiques relatifs à la notion de limite », Recherches en Didactique des Mathématiques, 6 (1), pp. 5-67.

Résumé :

La recherche dont il est question dans cet article se place dans la voie des recherches indiquées par Guy Brousseau (1983). Découvrir des obstacles épistémologiques liés aux mathématiques à enseigner à l'école et trouver les moyens didactiques pour aider les élèves à les surmonter - voilà, brièvement, deux principaux problèmes de ce programme de recherche. Ici, il s'agit du cas particulier de la notion de limite et l'article ne touche qu'au premier de ces problèmes : on propose une liste d'obstacles épistémologiques relatifs à la notion de limite présents encore chez des élèves d'aujourd'hui ; on ne propose pas les situations didactiques qui permettraient aux élèves de franchir ces obstacles.





similaire:

Résumé : Les axiomes sont des énoncés admis comme vrais, alors que les théorèmes sont des énoncés démontrés à partir d\Considèrent comme moins sérieuse et moins dommageable envers les...
«emotional abuse» sont très mal connues du grand public, surtout si elles ne sont pas associées à d’autres types de maltraitances,...

Résumé : Les axiomes sont des énoncés admis comme vrais, alors que les théorèmes sont des énoncés démontrés à partir d\La démarche en économie : comment construire et valider des énoncés...
...

Résumé : Les axiomes sont des énoncés admis comme vrais, alors que les théorèmes sont des énoncés démontrés à partir d\Les Unions Départementales des Anciens Combattants et Victimes de...
«niche fiscale» ! Les Anciens Combattants mutualistes cotisant au plafond sont considérés comme des «nantis» alors que cette rente,...

Résumé : Les axiomes sont des énoncés admis comme vrais, alors que les théorèmes sont des énoncés démontrés à partir d\Approbation plu de la commune de reaumont
«risque de glissement de terrain» passe sur le garage alors que les constructions sont édifiées sur du terrain dur et n’ont jamais...

Résumé : Les axiomes sont des énoncés admis comme vrais, alors que les théorèmes sont des énoncés démontrés à partir d\tous les jours et à tous points de vue, je vais de mieux en mieux, oui
«- c’est ce que l’on entend, c’est ce que l’on sème pour nous : ce sont les graines qui nous parviennent à l’esprit au travers des...

Résumé : Les axiomes sont des énoncés admis comme vrais, alors que les théorèmes sont des énoncés démontrés à partir d\Résumé Cette communication poursuit l’ambition de construire en concept...
«Etre à la hauteur des circonstances est difficile quand elles sont au plus bas. Or, elles ne sont jamais à la hauteur.»

Résumé : Les axiomes sont des énoncés admis comme vrais, alors que les théorèmes sont des énoncés démontrés à partir d\L’Autorité de la Loi et les Effets sur
«Certains veulent mourir. D'autres espèrent simplement leurs visages et leurs corps sont tellement défigurés que leur valeur va chuter,...

Résumé : Les axiomes sont des énoncés admis comme vrais, alors que les théorèmes sont des énoncés démontrés à partir d\Une séquence mineure qui s’inscrit dans l’objet d’étude : Les philosophes...
«privée» et s’oppose à la Justice institutionnelle, que les actes de vengeance sont parfois des réponses aux faiblesses de la Justice...

Résumé : Les axiomes sont des énoncés admis comme vrais, alors que les théorèmes sont des énoncés démontrés à partir d\Combien sont payés les patrons des entreprises publiques ? Quels...

Résumé : Les axiomes sont des énoncés admis comme vrais, alors que les théorèmes sont des énoncés démontrés à partir d\Mon formulaire de suivi personnel
«problèmes» qui nous sont personnellement destinés. Les évènements extérieurs ou personnes, ne sont pas la source de ces «problèmes»....






Tous droits réservés. Copyright © 2016
contacts
d.20-bal.com