Découvrez les chapitres du programme d’enseignement scientifique
Télécharger le programme applicable à la rentrée 2024
Découvrez les changements prévus dans ce programme
Programme en vigueur pour 2023/2024 :
Thème 1 : Science, climat et société
Thème 2 : Le futur des énergies
Thème 3 : Une histoire du vivant
Télécharger le programme officiel en PDF ou lisez le bulletin officiel ci-dessous.
Accès à la banque nationale de sujets ici
Thème 1 : Science, climat et société
Chapitre 1 : L’atmosphère terrestre et la vie
Chapitre 2 : La complexité du système climatique
Chapitre 3 : Le climat du futur
Chapitre 4 : Énergie, choix de développement et futur climatique
L’atmosphère primitive de la Terre était différente de celle d’aujourd’hui. Sa transformation au cours des milliards d’années est liée aux processus géologiques et biologiques. Depuis la révolution industrielle, l’activité humaine modifie de manière significative la composition atmosphérique. Ces modifications affectent l’équilibre dynamique des enveloppes fluides de la Terre.
Les conséquences de l’activité humaine sur la composition atmosphérique, celles qui sont déjà observées et celles qui sont prévisibles, sont multiples et importantes, tant pour l’humanité que pour les écosystèmes. Les choix raisonnés des individus et des sociétés dans ce domaine s’appuient sur les apports des sciences et des technologies.
1.1 L’atmosphère terrestre et la vie
Depuis l’époque de sa formation, quasi concomitante avec celle du Soleil et des autres planètes du système solaire, la Terre a connu une évolution spécifique de sa surface et de la composition de son atmosphère. Sa température de surface permet l’existence d’eau liquide, formant l’hydrosphère. Aux facteurs physiques et géologiques (activité solaire, distance au Soleil, tectonique) s’est ajoutée l’émergence des êtres vivants et de leurs métabolismes. Un fragile équilibre est atteint, qui permet la vie et la maintient.
Il y a environ 4,6 milliards d’années, l’atmosphère primitive était composée de N2, CO2 et H2O. Sa composition actuelle est d’environ 78 % de N2 et 21 % de O2, avec des traces d’autres gaz (dont H2O, CO2, CH4, N2O). Le refroidissement de la surface de la Terre primitive a conduit à la liquéfaction de la vapeur d’eau présente dans l’atmosphère initiale. L’hydrosphère s’est formée, dans laquelle s’est développée la vie. Les premières traces de vie sont datées d’il y a au moins 3,5 milliards d’années.
Par leur métabolisme photosynthétique, des cyanobactéries ont produit le dioxygène qui a oxydé, dans l’océan, des espèces chimiques réduites. Le dioxygène s’est accumulé à partir de 2,4 milliards d’années dans l’atmosphère. Sa concentration atmosphérique actuelle a été atteinte il y a 500 millions d’années environ.
Les sources et puits de dioxygène atmosphérique sont aujourd’hui essentiellement liés aux êtres vivants (photosynthèse et respiration) et aux combustions. Sous l’effet du rayonnement ultraviolet solaire, le dioxygène stratosphérique peut se dissocier, initiant une transformation chimique qui aboutit à la formation d’ozone. Celui-ci constitue une couche permanente de concentration maximale située à une altitude d’environ 30 km.
La couche d’ozone absorbe une partie du rayonnement ultraviolet solaire et protège les êtres vivants de ses effets mutagènes. Le carbone est stocké dans plusieurs réservoirs superficiels : l’atmosphère, les sols, les océans, la biosphère et les roches. Les échanges de carbone entre ces réservoirs sont quantifiés par des flux (tonne/an). Les quantités de carbone dans les différents réservoirs sont constantes lorsque les flux sont équilibrés. L’ensemble de ces échanges constitue le cycle du carbone sur Terre.
Les combustibles fossiles se sont formés à partir du carbone des êtres vivants, il y a plusieurs dizaines à plusieurs centaines de millions d’années. Ils ne se renouvellent pas suffisamment vite pour que les stocks se reconstituent : ces ressources en énergie sont dites non renouvelables.
1.2 La complexité du système climatique
Le système climatique et son évolution dans le temps résultent de plusieurs facteurs naturels et d’interactions entre océans, atmosphère, biosphère, lithosphère et cryosphère. Il est nécessaire de prendre en compte ces interactions à différentes échelles spatiales et temporelles (de l’année au million d’années voire davantage). Le système climatique présente une variabilité spontanée et réagit aux perturbations de son bilan d’énergie par des mécanismes appelés rétroactions. Les facteurs anthropiques ont des conséquences irréversibles à court terme.
Un climat est défini par un ensemble de moyennes de grandeurs atmosphériques observées dans une région
donnée pendant une période donnée. Ces grandeurs sont principalement la température, la pression, le degré d’hygrométrie, la pluviométrie, la nébulosité, la vitesse et la direction des vents.
La climatologie étudie les variations du climat local ou global à moyen ou long terme (années, siècles, millénaires…).
La météorologie étudie les phénomènes atmosphériques qu’elle prévoit à court terme (jours, semaines).
La température moyenne de la Terre, calculée à partir de mesures in situ et depuis l’espace par des satellites, est l’un des indicateurs du climat global. Il en existe d’autres : volume des océans, étendue des glaces et des glaciers… Le climat de la Terre présente une variabilité naturelle sur différentes échelles de temps. Toutefois, depuis plusieurs centaines de milliers d’années, jamais la concentration du CO2 atmosphérique n’a augmenté aussi rapidement qu’actuellement.
Depuis un siècle et demi, on mesure un réchauffement climatique global (environ +1°C). Celui-ci est la réponse du système climatique à l’augmentation du forçage radiatif (différence entre l’énergie radiative reçue et l’énergie radiative émise) due aux émissions de gaz à effet de serre (GES) dans l’atmosphère : CO2, CH4, N2O et vapeur d’eau principalement. Lorsque la concentration des GES augmente, l’atmosphère absorbe davantage le rayonnement thermique infrarouge émis par la surface de la Terre. En retour, il en résulte une augmentation de la puissance radiative reçue par le sol de la part de l’atmosphère.
Cette puissance additionnelle entraîne une perturbation de l’équilibre radiatif qui existait à l’ère préindustrielle. L’énergie supplémentaire associée est essentiellement stockée par les océans, mais également par l’air et les sols, ce qui se traduit par une augmentation de la température moyenne à la surface de la Terre et la montée du niveau des océans.
L’évolution de la température terrestre moyenne résulte de plusieurs effets amplificateurs (rétroaction positive), dont :
– l’augmentation de la concentration en vapeur d’eau (gaz à effet de serre) dans l’atmosphère ;
– la décroissance de la surface couverte par les glaces et diminution de l’albédo terrestre ;
– le dégel partiel du permafrost provoquant une libération de GES dans l’atmosphère.
L’océan a un rôle amortisseur en absorbant à sa surface une fraction importante de l’apport additionnel d’énergie. Cela conduit à une élévation du niveau de la mer causée par la dilatation thermique de l’eau. À celle-ci s’ajoute la fusion des glaces continentales. Cette accumulation d’énergie dans les océans rend le changement climatique irréversible à des échelles de temps de plusieurs siècles.
À court terme, un accroissement de la végétalisation constitue un puits de CO2 et a donc un effet de rétroaction négative (stabilisatrice).
1.3 Le climat du futur
L’analyse du système climatique, réalisée à l’aide de modèles numériques, repose sur des mesures et des calculs faisant appel à des lois physiques, chimiques, biologiques connues. Assorties d’hypothèses portant sur l’évolution de la production des gaz à effet de serre, les projections issues de ces modèles dessinent des fourchettes d’évolution du système climatique au XXI siècle.
Les modèles climatiques s’appuient sur :
– la mise en équations des mécanismes essentiels qui agissent sur le système Terre ;
– des méthodes numériques de résolution.
Les résultats des modèles sont évalués par comparaison aux observations in situ et spatiales ainsi qu’à la connaissance des paléoclimats. Ces modèles, nombreux et indépendants, réalisent des projections climatiques. Après avoir anticipé les évolutions des dernières décennies, ils estiment les variations climatiques globales et locales à venir sur des décennies ou des siècles.
L’analyse scientifique combinant observations, éléments théoriques et modélisations numériques permet aujourd’hui de conclure que l’augmentation de température moyenne depuis le début de l’ère industrielle est liée à l’activité humaine : CO2 produit par la combustion d’hydrocarbures, la déforestation, la production de ciment ; CH4 produit par les fuites de gaz naturel, la fermentation dans les décharges, certaines activités agricoles.
Les modèles s’accordent à prévoir, avec une forte probabilité d’occurrence, dans des fourchettes dépendant de la quantité émise de GES :
– une augmentation de 1,5 à 5°C de la température moyenne entre 2017 et la fin du XXIe siècle ;
– une élévation du niveau moyen des océans entre le début du XXIe siècle et 2100 pouvant atteindre le mètre ;
– des modifications des régimes de pluie et des événements climatiques extrêmes ;
– une acidification des océans ;
– un impact majeur sur les écosystèmes terrestres et marins.
1.4 Énergie, choix de développement et futur climatique
La consommation mondiale d’énergie fait majoritairement appel aux combustibles fossiles, principale cause du réchauffement climatique. Il est donc essentiel d’identifier, pour toute activité, individuelle ou collective, ou tout produit, l’impact sur la production de gaz à effet de serre. L’identification d’autres effets collatéraux, notamment sur la santé, est importante. Les différents scénarios de l’évolution globale du climat dépendent des stratégies que l’humanité mettra en œuvre.
L’énergie utilisée dans le monde provient d’une diversité de ressources parmi lesquelles les
combustibles fossiles dominent. La consommation en est très inégalement répartie selon la richesse des pays et des individus.
La croissance de la consommation globale (doublement dans les 40 dernières années) est directement liée au modèle industriel de production et de consommation des sociétés. En moyenne mondiale, cette énergie est utilisée à parts comparables par le secteur industriel, les transports, le secteur de l’habitat et dans une moindre mesure par le secteur agricole.
Les énergies primaires sont disponibles sous forme de stocks (combustibles fossiles, uranium) et de flux (flux radiatif solaire, flux géothermique, puissance gravitationnelle à l’origine des marées).
La combustion de carburants fossiles et de biomasse libère du dioxyde de carbone et également des aérosols et d’autres substances (N2O, O3, suies, produits soufrés), qui affectent la qualité de l’air respiré et la santé.
L’empreinte carbone d’une activité ou d’une personne est la masse de CO2 produite directement ou indirectement par sa consommation d’énergie et/ou de matière première.
Les scénarios de transition écologique font différentes hypothèses sur la quantité de GES émise dans le futur. Ils évaluent les
changements prévisibles, affectant les écosystèmes et les conditions de vie des êtres humains, principalement les plus fragiles.
Les projections fournies par les modèles permettent de définir les aléas et peuvent orienter les prises de décision. Les mesures d’adaptation découlent d’une analyse des risques et des options pour y faire face.
Thème 2 : Le futur des énergies
Dans le secteur de l’énergie, l’électricité joue un rôle majeur dans le développement économique. Produire de l’électricité sans contribuer au réchauffement climatique, en concevoir le stockage sous d’autres formes, optimiser son transport deviennent des objectifs majeurs d’une transition climatique et environnementale. L’histoire du développement des générateurs d’électricité fournit de féconds exemples d’échanges entre la science fondamentale, la technologie et l’industrie.
2.1 Deux siècles d’énergie électrique
Depuis le XIXe siècle, les progrès de la recherche scientifique fondamentale et de l’invention technique ont conduit à développer des générateurs électriques pratiques, performants, à l’impact climatique et environnemental de moins en moins marqué. Historiquement, le développement des techniques d’obtention d’énergie électrique s’est appuyé sur des découvertes expérimentales et des avancées théoriques qui furent souvent le résultat de recherches dont ce développement n’était pas le but premier. Il est ainsi fréquent que les résultats de la recherche fondamentale aboutissent à des innovations technologiques non anticipées.
Les alternateurs électriques exploitent le phénomène d’induction électromagnétique découvert par Faraday puis théorisé par Maxwell au XIXe siècle.
Ils réalisent une conversion d’énergie mécanique en énergie électrique avec un rendement potentiellement très proche de 1.
Au début du XXe siècle, la physique a connu une révolution conceptuelle à travers la vision quantique qui introduit un comportement probabiliste de la nature. Le caractère discret des spectres de raies d’émission des atomes s’explique de cette façon.
L’exploitation technologique des matériaux semi-conducteurs, en particulier du silicium, en est également une conséquence. Ces matériaux sont utilisés en électronique et sont constitutifs des capteurs photovoltaïques. Ceux-ci absorbent l’énergie radiative et la convertissent en énergie électrique.
2.2 Les atouts de l’électricité
L’énergie électrique présente de nombreux avantages : une distribution aisée, sûre et à faible impact écologique ; l’existence de réseaux de distribution très étendus ; la disponibilité de convertisseurs de bon rendement permettant de transformer l’énergie électrique en d’autres formes d’énergie ou, symétriquement, d’obtenir de l’énergie électrique. L’existence de procédés d’obtention d’énergie électrique sans combustion justifie le rôle central que cette forme d’énergie est amenée à jouer à l’avenir.
Trois méthodes permettent d’obtenir de l’énergie électrique sans nécessiter de combustion :
– la conversion d’énergie mécanique, soit directe (dynamos, éoliennes, hydroliennes, barrages hydroélectriques), soit indirecte à
partir d’énergie thermique (centrales nucléaires, centrales solaires thermiques, géothermie) ;
– la conversion de l’énergie radiative reçue du Soleil (panneaux photovoltaïques) ;
– la conversion électrochimique (piles ou accumulateurs conventionnels, piles à hydrogène).
Ces méthodes sans combustion ont néanmoins un impact sur l’environnement et la biodiversité ou présentent des risques spécifiques (pollution chimique, déchets radioactifs, accidents industriels…).
Pour faire face à l’intermittence liée à certains modes de production ou à la consommation, l’énergie électrique doit être convertie sous une forme stockable :
– énergie chimique (accumulateurs) ;
– énergie potentielle (barrages) ;
– énergie électromagnétique (supercapacités).
2.3 Optimisation du transport de l’électricité
La minimisation des pertes par effet Joule dans la distribution d’électricité le long d’un réseau entre dans le cadre général des problèmes mathématiques de transport et d’optimisation sous contraintes. Ces problèmes, très difficiles à résoudre car non linéaires, nécessitent des traitements numériques lorsqu’ils mettent en jeu un nombre important d’inconnues ou de données.
Présentés ici dans le cadre du transport d’électricité, les graphes sont des modèles mathématiques utilisés pour traiter des problèmes relevant de domaines variés : transport d’information dans un réseau informatique, réseaux sociaux, transactions financières, analyses génétiques, etc.
Au cours du transport, une partie de l’énergie électrique, dissipée dans l’environnement par effet Joule, ne parvient pas à l’utilisateur. L’utilisation de la haute tension dans les lignes électriques limite les pertes par effet Joule, à puissance transportée fixée.
Un réseau de transport électrique peut être modélisé mathématiquement par un graphe orienté dont les arcs représentent les lignes électriques et dont les sommets représentent les sources distributrices, les nœuds intermédiaires et les cibles destinatrices. Dans ce modèle, l’objectif est de minimiser les pertes par effet Joule sur l’ensemble du réseau sous les contraintes suivantes :
– l’intensité totale sortant d’une source est limitée par la puissance maximale distribuée ;
– l’intensité totale entrant dans chaque nœud intermédiaire est égale à l’intensité totale qui en sort ;
– l’intensité totale arrivant à chaque cible est imposée par la puissance qui y est utilisée.
2.4 Choix énergétiques et impacts sur les sociétés
Pour les sociétés, l’enjeu climatique et environnemental est celui d’une transition entre la situation actuelle et un développement fondé sur un régime durable de conversion et d’utilisation de l’énergie. La complexité de cette transition impose de connaître, comprendre et hiérarchiser les paramètres sur lesquels il est possible d’agir, individuellement et collectivement.
– Pour que soit mise en œuvre une adaptation efficace aux changements inéluctables et qu’en soit atténué l’impact négatif, les choix énergétiques supposent une compréhension globale du système Terre.
– Ces choix doivent tenir compte de nombreux critères et paramètres : disponibilité des ressources et adéquation aux besoins, impacts (climatique, écologique, sanitaire, agricole), vulnérabilités et gestion des risques, faisabilité, conséquences économiques et sociales. L’analyse de ces éléments de décision conduit le plus souvent à une recherche de diversification ou d’évolution des ressources (mix énergétique).
– Les durées longues, liées à l’inertie de certains systèmes (infrastructures énergétiques, transports, production industrielle), sont à confronter à l’urgence de l’action.
– La transition écologique des sociétés repose sur la créativité scientifique et technologique, comme sur l’invention de nouveaux comportements individuels et collectifs (consommations, déplacements, relations Nord-Sud).
Thème 3 : Une histoire du vivant
La Terre est habitée par une grande diversité d’êtres vivants. Cette biodiversité est dynamique et issue d’une longue histoire dont l’espèce humaine fait partie. L’évolution constitue un puissant outil de compréhension du monde vivant. Les activités humaines se sont transformées au cours de cette histoire, certaines inventions et découvertes scientifiques ont contribué à l’essor de notre espèce.
Les mathématiques permettent de modéliser la dynamique des systèmes vivants afin de décrire leur évolution. La démarche de modélisation mathématique comporte plusieurs étapes : identification du type de modèle le mieux adapté pour traduire la réalité, détermination des paramètres du modèle, confrontation des résultats du modèle à des observations, qui peut conduire à limiter son domaine de validité ou à le modifier.
L’être humain a construit des machines pour traiter l’information et a créé des langages pour les commander. Avec les méthodes de l’intelligence artificielle, il continue d’étendre les capacités de traitement de données et les domaines d’application de l’informatique.
3.1 La biodiversité et son évolution
Évaluer la biodiversité à différentes échelles spatiales et temporelles représente un enjeu majeur pour comprendre sa dynamique et les conséquences des actions humaines. Les populations évoluent au cours du temps. Des modèles mathématiques probabilistes et des outils statistiques permettent d’étudier les mécanismes évolutifs impliqués.
Il existe sur Terre un grand nombre d’espèces dont seule une faible proportion est effectivement connue. La biodiversité se mesure par des techniques d’échantillonnage (spécimens ou ADN) qui permettent d’estimer le nombre d’espèces (richesse spécifique) dans différents milieux. Les composantes de la biodiversité peuvent aussi être décrites par l’abondance (nombre d’individus) d’une population, d’une espèce ou d’un plus grand taxon.
Il existe plusieurs méthodes permettant d’estimer un effectif à partir d’échantillons. La méthode de « capture-marquage-recapture » repose sur des calculs effectués sur un échantillon. Si on suppose que la proportion d’individus marqués est identique dans l’échantillon de recapture et dans la population totale, l’effectif de celle-ci s’obtient par le calcul d’une quatrième proportionnelle.
À partir d’un seul échantillon, l’effectif d’une population peut également être estimé à l’aide d’un intervalle de confiance. Une telle estimation est toujours assortie d’un niveau de confiance strictement inférieur à 100 % en raison de la fluctuation des échantillons. Pour un niveau de confiance donné, l’estimation est d’autant plus précise que la taille de l’échantillon est grande
Au cours de l’évolution biologique, la composition génétique des populations d’une espèce change de génération en génération.
Le modèle mathématique de Hardy-Weinberg utilise la théorie des probabilités pour décrire le phénomène aléatoire de transmission des allèles dans une population. En assimilant les probabilités à des fréquences pour des effectifs de grande taille (loi des grands nombres), le modèle prédit que la structure génétique d’une population de grand effectif est stable d’une génération à l’autre sous certaines conditions (absence de migration, de mutation et de sélection). Cette stabilité théorique est connue sous le nom d’équilibre de Hardy-Weinberg.
Les écarts entre les fréquences observées sur une population naturelle et les résultats du modèle s’expliquent notamment par les effets de forces évolutives (mutation, sélection, dérive, etc.).
Les activités humaines (pollution, destruction des écosystèmes, combustions et leurs impacts climatiques, surexploitation d’espèces…) ont des conséquences sur la biodiversité et ses composantes (dont la variation d’abondance) et conduisent à l’extinction d’espèces.
La fragmentation d’une population en plusieurs échantillons de plus faibles effectifs entraîne par dérive génétique un appauvrissement de la diversité génétique d’une population. La connaissance et la gestion d’un écosystème permettent d’y préserver la biodiversité.
3.2 L’évolution comme grille de lecture du monde
Les concepts de biologie évolutive ont une large portée explicative, présentée ici à travers plusieurs exemples. Ils permettent de comprendre l’anatomie comme le résultat d’une longue histoire évolutive, faite d’adaptations, de hasard, de contingences et de compromis. Les concepts de variation et de sélection naturelle éclairent des pratiques humaines (médicales et agricoles) et certaines de leurs conséquences.
Les structures anatomiques présentent des particularités surprenantes d’un point de vue fonctionnel, pouvant paraître sans fonction avérée ou bien d’une étonnante complexité. Elles témoignent de l’évolution des espèces, dont la nôtre. Les caractères anatomiques peuvent être le résultat de la sélection naturelle mais certains sont mieux expliqués par l’héritage de l’histoire évolutive que par leur fonction.
L’évolution permet de comprendre des phénomènes biologiques ayant une importance médicale. L’évolution rapide des organismes microbiens nécessite d’adapter les stratégies prophylactiques, les vaccins et les antibiotiques. Depuis la révolution agricole, la pratique intensive de la monoculture, la domestication et l’utilisation de produits phytosanitaires ont un impact sur la biodiversité et son évolution.
3.3 L’évolution humaine
La paléoanthropologie construit un récit scientifique de nos origines à partir des archives fossiles. La phylogénie permet d’étudier les relations de parenté entre les espèces actuelles et fossiles d’Hominidés.
L’espèce humaine actuelle (Homo sapiens) fait partie du groupe des primates et est plus particulièrement apparentée aux grands singes avec lesquels elle partage des caractères morpho-anatomiques et des similitudes génétiques. C’est avec le chimpanzé qu’elle partage le plus récent ancêtre commun.
Des arguments scientifiques issus de l’analyse comparée de fossiles permettent de reconstituer l’histoire de nos origines. L’étude de fossiles datés de 3 à 7 millions d’années montre des innovations caractéristiques de la lignée humaine (bipédie prolongée, forme de la mandibule).
Le genre Homo regroupe l’espèce humaine actuelle et des espèces fossiles qui se caractérisent notamment par le développement de la capacité crânienne. Plusieurs espèces humaines ont cohabité sur Terre. Certains caractères sont transmis de manière non génétique : microbiote, comportements appris dont la langue, les habitudes alimentaires, l’utilisation d’outils…
3.4 Les modèles démographiques
Dans le cadre de l’étude de l’évolution des populations, il est important de prédire leur effectif futur mais aussi la manière dont vont évoluer les ressources qui leur sont nécessaires. Pour prédire l’évolution d’un système quelconque, les scientifiques utilisent des modèles mathématiques. La présentation de l’exemple historique de Malthus permet de mettre en œuvre cette démarche mathématique dans le cas discret (correspondant à une variation par paliers).
Un modèle mathématique simple est le modèle linéaire. Une grandeur discrète u varie de manière linéaire en fonction d’un palier entier n si sa variation absolue u(n+1)-u(n) est constante. Dans ce cas, les points (n, u(n)) sont situés sur une droite. La suite de terme général u(n) est arithmétique. Dans la réalité, pour une population dont la variation absolue est presque constante d’un palier à l’autre, on peut ajuster le nuage de points qui la représente par une droite (modèle linéaire).
Le modèle linéaire est inadapté pour représenter l’évolution d’une grandeur dont la variation absolue change fortement d’un palier à l’autre. Une grandeur discrète u varie de manière exponentielle en fonction du palier entier n si sa variation absolue u(n+1) – u(n) est
proportionnelle à sa valeur courante u(n). Dans ce cas, sa variation relative (ou taux de variation) est constante et la suite de terme général u(n) est géométrique. Dans la réalité, pour une population dont le taux de variation est presque constant d’un palier à l’autre, on peut ajuster le nuage de points par un modèle exponentiel.
Le modèle démographique de Malthus est un modèle exponentiel d’évolution de l’effectif de la population. Il prévoit que l’effectif de la population décroît vers 0 si le taux de mortalité est supérieur au taux de natalité et croît vers l’infini si le taux de natalité est supérieur au taux de mortalité. Si les prédictions du modèle de Malthus peuvent se révéler correctes sur un temps court, elles sont irréalistes sur un temps long, notamment en raison de l’insuffisance des ressources disponibles. Des modèles plus élaborés prévoient que la population mondiale atteindra environ 10 milliards d’humains en 2050.
3.5 L’intelligence artificielle
L’être humain n’a cessé d’accroître son pouvoir d’action sur le monde, utilisant son intelligence pour construire des outils et des machines. Il a élaboré un mode de pensée algorithmique susceptible d’être codé dans des langages permettant de commander ces machines. Aujourd’hui, l’intelligence artificielle (IA) permet l’accomplissement de tâches et la résolution de problèmes jusqu’ici réservés aux humains : reconnaître et localiser les objets dans une image, conduire une voiture, traduire un texte, dialoguer, … Un champ de l’intelligence artificielle ayant permis des applications spectaculaires est celui de l’apprentissage machine.
Jusqu’au début du XXe siècle, les machines traitant l’information sont limitées à une ou quelques tâches prédéterminées (tisser grâce à un ruban ou des cartes perforées, trier un jeu de carte perforées, séparer des cartes selon un critère, sommer des valeurs indiquées sur ces cartes, …). Turing a été le premier à proposer le concept de machine universelle qui a été matérialisé dix ans plus tard avec les premiers ordinateurs. Ceux-ci sont constitués a minima d’un processeur et d’une mémoire vive.
Un ordinateur peut manipuler des données de natures diverses une fois qu’elles ont été numérisées : textes, images, sons. Les programmes sont également des données : ils peuvent être stockés, transportés, et traités par des ordinateurs. En particulier, un programme écrit dans un langage de
programmation de haut niveau (Python, Scratch…) peut être traduit en instructions spécifiques à chaque type de processeur.
Un programme peut comporter jusqu’à plusieurs centaines de millions de lignes de code, ce qui rend très probable la présence d’erreurs appelées bogues (ou bugs). Ces erreurs peuvent conduire un programme à avoir un comportement inattendu et entraîner des conséquences graves.
Le terme « intelligence artificielle » (IA) recouvre un ensemble de théories et de techniques qui traite de problèmes dont la résolution fait appel à l’intelligence humaine. L’apprentissage machine (ou « apprentissage automatique ») utilise des programmes capables de s’entraîner à partir de données. Il exploite des méthodes mathématiques qui, à partir du repérage de tendances (corrélations, similarités) sur de très grandes quantités de données (big data), permet de faire des prédictions ou de prendre des décisions sur d’autres données.
La qualité et la représentativité des données d’entraînement sont essentielles pour la qualité des résultats. Les biais dans les données peuvent se retrouver amplifiés dans les résultats.
L’inférence bayésienne est une méthode de calcul de probabilités de causes à partir des probabilités de leurs effets. Elle est utilisée en apprentissage automatique pour modéliser des relations au sein de systèmes complexes, notamment en vue de prononcer un diagnostic (médical, industriel, détection de spam…). Cela permet de détecter une anomalie à partir d’un test imparfait.
Télécharger le programme complet en fichier PDF