E-Book, Französisch, 200 Seiten, Gewicht: 1 g
Kohlas / Schmid / Zehnder informatique@gymnase
1. Auflage 2013
ISBN: 978-3-03823-976-5
Verlag: NZZ Libro
Format: EPUB
Kopierschutz: 6 - ePub Watermark
Un projet pour la Suisse
E-Book, Französisch, 200 Seiten, Gewicht: 1 g
ISBN: 978-3-03823-976-5
Verlag: NZZ Libro
Format: EPUB
Kopierschutz: 6 - ePub Watermark
Linformatique et lutilisation de linformatique sont deux choses bien distinctes. De nos jours, même un enfant sait se servir dun ordinateur et faire une recherche dans Google. Et dans le monde professionnel, lordinateur est omniprésent. Linformatique nest cependant pas uniquement le fondement de ces applications, mais aussi une science à part entière, une discipline scientifique au même titre que la physique, la chimie ou la biologie, qui, à linstar de ces dernières, devrait être enseignée à lécole.
Cet ouvrage présente les arguments sur la place de linformatique et de ses applications au gymnase selon différents angles, notamment celui de linformatique comme science fondamentale du traitement et de la présentation de linformation, mais aussi par rapport aux objectifs de formation de lenseignement de culture générale, tels quils sont formulés dans le règlement sur la reconnaissance des certificats de maturité gymnasiale, et qui ne peuvent être atteints sans connaissances en informatique. Loin dêtre une science isolée, linformatique est liée à de nombreuses autres disciplines scientifiques, par sa simple utilisation dune part, et par la mise en uvre de nouvelles méthodes de travail, telles que la création de modèles numériques virtuels, dautre part. Par ailleurs, il existe une relation privilégiée entre linformatique et les mathématiques. Après une analyse des liens entre les différentes matières, louvrage décrit les objectifs, la conception et le contenu approprié dune discipline ' Informatique ' au gymnase, et souligne que dans ce contexte, il convient de distinguer les différents rôles que jouent la science informatique, lutilisation de ses applications et lordinateur à titre de média et doutil de travail.
Autoren/Hrsg.
Fachgebiete
- Sozialwissenschaften Pädagogik Pädagogik Bildungssystem Bildungspolitik, Bildungsreform
- Sozialwissenschaften Pädagogik Lehrerausbildung, Unterricht & Didaktik Allgemeine Didaktik
- Sozialwissenschaften Pädagogik Lehrerausbildung, Unterricht & Didaktik Schulpädagogik
- Mathematik | Informatik EDV | Informatik EDV & Informatik Allgemein EDV & Informatik: Ausbildung & Berufe
Weitere Infos & Material
2.2 L’informatique
sous l’angle historique L’informatique en tant que discipline a deux racines: l’une mathématique et logique, l’autre technique. Cette dernière est liée au développement de la machine – l’ordinateur – et concerne les réalisations de l’ingénierie qui ont modifié tous les domaines de notre vie. L’origine mathématique et logique de l’informatique a évolué vers l’étude des possibilités et des limites théoriques du traitement automatique de l’information et des lois qui le régissent. La convergence de ces deux origines a entraîné la synthèse, en une seule matière, de deux manières de penser distinctes, d’une part, l’approche mathématique et exacte et, d’autre part, l’approche technique et constructive. L’évolution du calcul Si nous limitons le champ d’investigation au calcul digital, autrement dit, aux machines et systèmes dans lesquels l’information est représentée et traitée sous forme d’unités discrètes, l’histoire de l’ordinateur commence par l’invention des machines arithmétiques par Pascal (Pascaline, 1642, addition et soustraction) et Leibniz (1673, les quatre opérations arithmétiques élémentaires). Munies de roues dentées, ces machines travaillaient avec le système décimal ou, pour la Pascaline, les systèmes duodécimal et vicésimal (système monétaire français, avec les deniers et les sous). Au niveau de la conception, la difficulté principale résidait dans les reports de 10, 12 ou 20 et dans la conception des opérations arithmétiques élémentaires, soit leur réduction en addition. Leibniz fut le premier à souligner l’importance de ces machines pour le calcul fiable des tables mathématiques et astronomiques. La mécanisation du calcul a atteint son apogée avec la machine à différences et la machine analytique de Babbage (1792 – 1871). La machine à différences était spécialement conçue pour le calcul de polynômes de degré n au moyen des n-ièmes différences constantes par additions successives. La machine analytique était censée couvrir l’ensemble de l’analyse mathématique telle qu’il était définie à l’époque. Elle présentait déjà quelques caractéristiques essentielles d’un ordinateur universel: une unité de calcul centrale («mill») pour les opérations arithmétiques élémentaires, une mémoire («store») pour les variables (système décimal), les données et les résultats intermédiaires, des possibilités de programmation souple et un organe de commande à cartes perforées, similaire à celui des métiers à tisser de Jacquard, et un dispositif de sortie (imprimante ou perforatrice de cartes). La machine de Babbage était conçue pour fonctionner à la vapeur, mais elle n’a jamais été construite, en raison de problèmes mécaniques insurmontables et d’un manque de maturité conceptuelle. En revanche, quelques programmes pour la machine analytique virent le jour, notamment grâce à Lady Ada Lovelace, la fille de Lord Byron. Par ailleurs, Lovelace et Babbage ne manquèrent jamais une occasion de souligner l’universalité de cette machine révolutionnaire, ce qui, en rétrospective, était tout à fait exact. L’algèbre de George Boole (1815 – 1864) a jeté les bases pour l’étape suivante, car elle a permis l’arithmétique des nombres binaires au moyen de circuits logiques binaires. Dans cette technique, les premières installations mécaniques (chemins de fer et premiers ordinateurs de Zuse) ont évolué vers les circuits intégrés utilisés dans les ordinateurs modernes, en passant par les relais (toujours en usage dans le domaine ferroviaire), les tubes électroniques (dans les premiers calculateurs universels) et les transistors. Les gains de performance et la miniaturisation résultant de cette évolution ont permis d’embarquer des processeurs dans de nombreux produits, les rendant ainsi invisibles. Les principaux problèmes conceptuels, tels que l’organisation des reports (p.ex.des dizaines) dans les additions et l’association des opérations arithmétiques élémentaires, n’avaient pas changé pour autant. A cela vinrent s’ajouter de nouvelles questions relatives à la représentation des nombres: le système décimal utilisé dans le calcul manuel n’était plus adapté au calcul automatique et les seuls nombres entiers ne suffirent plus pour effectuer les calculs (nombres à virgule flottante). Ces développements entraînèrent également des problèmes de codage, notamment pour la transmission des informations (sur la distance pour la communication et dans le temps pour le stockage). Shannon procéda, vers 1940, à l’étude systématique du problème de codage. Il montra qu’il était possible de stocker les données de manière compacte et rationnelle en éliminant les redondances, et de transmettre des informations de manière fiable à travers des canaux quelconques non fiables en augmentant la redondance de ces informations. Il définit la capacité des canaux et partant, les limites du débit de transmission. Toutefois, ses procédés de codage étaient soit inefficients du point de vue de la technique de calcul, soit non optimaux. Ces insuffisances ouvrirent un nouveau domaine de recherche, toujours très actif, axé sur la mise au point de procédés efficients permettant de s’approcher au maximum des limites absolues définies par Shannon. Les travaux de Shannon sont à la base des progrès incroyables des moyens de communication actuels et des technologies mises en œuvre dans les supports de données, d’images, de sons et de films. Dès 1945, les premiers ordinateurs universels ont été construits selon l’architecture de von Neumann. Le rêve de Babbage était devenu réalité. Il apparut immédiatement que l’universalité des ordinateurs et les possibilités d’automatisation qu’ils offrent ouvriraient de nouveaux horizons. Au cours des années 1940, von Neumann avait déjà élaboré les éléments d’une théorie générale des automates naturels et artificiels. Dans ses premières ébauches, il étudia les réseaux neuronaux de McCulloch et de Pitts. Il s’intéressait particulièrement aux systèmes autoreproducteurs et à la fiabilité de systèmes construits à partir de composants non fiables, s’inspirant ici également de la biologie. Aujourd’hui encore, sa vision est présente dans les automates cellulaires et la neuroinformatique. L’architecture de von Neumann se caractérise par le fait que les programmes sont enregistrés dans la même mémoire que les données. En raison du manque de lisibilité et de clarté des programmes en langage machine, les programmeurs se sont tournés, dans un premier temps, vers les langages assembleurs, puis vers les premiers langages de programmation évolués. Ces langages ont pour but de décrire les méthodes de calcul et les algorithmes de façon à ce que la machine puisse les comprendre et les interpréter automatiquement, tout en restant intelligibles pour le programmeur. Plusieurs langages de programmation importants ont été inventés en Suisse, tels que Algol (Rutishauser) et Pascal, Modula, Oberon (Wirth). Les différents langages de programmation sont associés à des styles de programmation distincts, tels que la programmation impérative, fonctionnelle, logique ou orientée objet et les visions du monde («Weltanschauungen») et abstractions correspondantes. La programmation de logiciels produit des artéfacts d’une complexité nouvelle, jusqu’ici inconnue. Les réseaux en particulier ont engendré les systèmes les plus complexes jamais construits par l’homme. Les technologies de l’information et de la communication actuelles sont le résultat de cette évolution technique. Elles nous donnent les moyens de créer, de gérer, d’analyser et d’échanger de gigantesques volumes de données. Mais cela a certaines conséquences. La théorie née des fondements mathématiques et logiques montre que l’exactitude d’un programme ne peut pas toujours être vérifiée. Dans la pratique, il est impossible de garantir qu’un programme qui contient des millions d’instructions, tel qu’un système d’exploitation, est totalement exempt d’erreurs. Cette problématique est à l’origine d’un nouveau domaine de recherche, le génie logiciel, appelé à étudier ces questions. Le génie logiciel développe des concepts et des méthodes, afin d’augmenter, voire de garantir, la fiabilité de programmes et de systèmes de programmes. Il est impossible d’appréhender le monde contemporain sans comprendre les fondements de cette complexité et les éléments principaux permettant de la maîtriser. Les fondements mathématiques et logiques Les fondements théoriques de l’informatique sont nés de la crise des fondements des mathématiques. A l’origine, les axiomes de la géométrie ont été considérés comme des propositions immuables et évidemment vraies sur l’espace. Or, la dé-couverte des géométries non euclidiennes a remis cette théorie en question et est apparue en conséquence la question de la véracité des mathématiques et de ses démonstrations. Le grand mathématicien Hilbert a introduit le formalisme: les démonstrations de théorèmes doivent être déduites des axiomes selon des règles strictes. Ces déductions pourraient ainsi être reconstituées et partant, vérifiées, par tous. Hilbert était convaincu que le formalisme permettrait de démontrer tous les théorèmes vrais. Sa pierre tombale porte d’ailleurs l’épitaphe suivante: «Nous devons savoir. Nous saurons.» Ce rêve a déjà été brisé du vivant de Hilbert, par le logicien Gödel. Selon le théorème...