Remerciement
                                                                

 

[]

[]       UNIVERSITÉ MOHAMMED V-RABAT

[]        FACULTÉ DES SCIENCES

[]      RABAT

[]                                                                                         N d’ordre :

[] THÈSE DE DOCTORAT

[] Présentée par

[] Sanae ZRIOUEL

[] Discipline : Physique Spécialité : Physique Mathématique

 

Contributions à l’étude Monte Carlo des propriétés magnétiques des nanomatériaux type graphyne et graphone

[]  

Soutenue le 12 Mars 2016, Devant le jury

[] Président :

[] Najia KOMIHA           PES, Faculté des Sciences, Rabat

[]

Examinateurs :

[] Lahoucine BAHMAD PES, Faculté des Sciences, Rabat Mohamed DAOUD PES, Faculté des Sciences Ain Chock, Casablanca Lalla Btissam DRISSI PH, Faculté des Sciences, Rabat Najem HASSANAIN PES, Faculté des Sciences, Rabat El Hassan SAIDI PES, Faculté des Sciences, Rabat

[]

 

Faculté des Sciences, 4 Avenue Ibn Battouta B.P. 1014 RP, Rabat-Maroc Tel +212 (0) 37 77 18 34/35/38, Fax : +212 (0) 37 77 42 61, http://www.fsr.ac.ma

Remerciement

Les travaux présentés dans cette thèse ont été réalisés au sein du Laboratoire de Physique des Hautes Energies, Modélisation et Simulation (LPHE-MS) du département de physique de la Faculté des Sciences de Rabat, sous la direction de Monsieur El Hassan SAIDI, Professeur de l’Enseignement Supérieur à la Faculté des Sciences de Rabat et la co-direction de Mme Lalla Btissam DRISSI, Professeure Habilité à la Faculté des Sciences de Rabat.

Toute ma gratitude et mes sincères remerciements à mon directeur de thèse Monsieur El Hassan SAIDI, Professeur de l’Enseignement Supérieur à la Faculté des sciences de Rabat et ma Co-directrice Madame Lalla Btissam DRISSI, Professeure Habilité à la Faculté des Sciences de Rabat, pour m’avoir guidée, encouragée, conseillée et pour le formidable encadrement qu’ils m’ont accordé tout au long de ce travail. Leurs disponibilité, leurs expérience et leurs sens de transmission des connaissances scientifiques m’ont permis de mener à bien ce travail. Je ne peux que leurs remercier, non seulement pour leurs compétences scientifiques, mais aussi pour leurs qualités humaines, leurs conseils judicieux et leurs attentions au détail.

J’adresse mes remerciements les plus profonds à Madame Najia KOMIHA, Professeure de l’Enseignement Supérieur à la Faculté des Sciences de Rabat, qui m’a fait l’honneur d’être la présidente de mon Jury de thèse. Je la remercie aussi pour son enseignement durant la préparation du Master avec une très grande compétence. Son aide et l’enseignement de haut niveau que j’ai reçu auprès de lui durant ma formation de Master m’ont été d’un grand intérêt.

Je tiens également à remercier Monsieur Lahoucine BAHMAD, Professeur de l’Enseignement Supérieur à la Faculté des Sciences de Rabat, pour avoir accepté d’être rapporteur de ma thèse. Veuillez recevoir, Monsieur, l’expression de mon respect et de ma profonde gratitude.

Je suis très honoré que Monsieur Najem HASSANAIN, Professeur à la Faculté des Sciences de Rabat, ait accepté d’être Examinateur de ce travail. Qu’il trouve ici, l’expression de ma profonde considération.

Un grand merci à Monsieur Mohammed DAOUD, Professeur de l’Enseignement Supérieur à la Faculté des Sciences, Ain Chock Casablanca, pour sa participation à mon jury de thèse en qualité de rapporteur de mon travail et pour toutes remarques intéressantes qu’il m’a faites. Veuillez agréer, Monsieur, l’assurance de mon profond respect.

Je remercie énormément tous les membres du jury pour leur disponibilité le jour de ma soutenance, pour le privilège qu’ils m’ont accordé par leur présence et pour l’intérêt qu’ils ont attribué à mon mémoire de thèse. Je tiens à vous remercier encore une fois d’avoir accepté de vous déplacer pour partager avec moi l’un des moments les plus mémorables de toute ma vie. Ces moments qui risquent de créer un événement inoubliable pour le reste de mes jours.

Je voudrais tout particulièrement exprimer ma reconnaissance à Monsieur Rachid AHL LAAMARA, Professeur Assistant au CRMEF, Meknes, qui m’a suivi tout au long de cette thèse. Je tiens à l’assurer de ma profonde reconnaissance, pour son aide, sa disponibilité, ses nombreux conseils et son soutien sans faille. Soyez assuré, Monsieur, de ma profonde gratitude.

Je voudrais adresser un remerciement particulier à tous le corps professoral du Master, pour leur soutien et pour leur patience. A Prof M. Ait Ben Haddou, Prof L. Bahmad, Prof A. Belhaj, Prof M. Bennai, Prof F. Bentayeb, Prof M. Daoud, Prof A. El Kenz, Prof N. E. Fahssi, Dr. A. Hamama, Dr J. Khan, Prof. N. Komiha, Prof T. Lhallabi, Prof E.H. Saidi et Prof M. B. Sedra, qui ont contribué à nous transmettre leur savoir pour assurer notre formation. Merci à vous tous chers professeurs pour m’avoir fait goûter au charme de la physique théorique et pour m’avoir fait déguster le délice des différents axes de la physique des hautes énergies, modélisation et simulation.

Si j’en suis arrivée là aujourd’hui, c’est aussi parce que j’ai rencontré sur mon chemin des personnes qui m’ont apporté le meilleur d’elles-mêmes et m’ont hissé vers l’excellence. Je remercie l’ensemble de l’équipe de recherche du LPHE-MS pour les nombreuses et toujours fructueuses discussions. Travailler avec eux a été un réel plaisir que du bonheur.

Ne pouvant malheureusement pas citer toutes les personnes que j’ai rencontré durant mon parcours et qui ont pu contribué d’une façon ou d’une autre, de près ou de loin, à l’aboutissement de cette thèse, je leur dis à toutes merci d’avoir été là à cette instant précis où je les ai rencontrées et où ils m’ont apportée cette aide qui a surement contribuée à aller au bout de cette thèse.

Cette thèse s’est rédigée en une bonne partie à la maison avec l’encouragement continu, le soutien financier et moral constant et la bienveillance sensationnelle de ma tendre très chère mère Fatima et mon adorable aimable père Said. Merci à vous deux pour tout ce que vous avez fait pour moi durant tout le parcours de ma vie et grâce auquel je suis là présente aujourd’hui. Mille merci à toi Hamada, Karima et Oussama pour toutes les petites aussi bien que les très grandes choses que vous m’avez présentées et que je n’oublierai jamais, Merci ma petite famille, vous étiez tous présents chaque moments où j’avais besoin de vous, merci pour votre dévouement illimité et votre amour zélé.

Merci à tous les membres de ma grande famille et surtout à mon exquise grand-mère et ma tante Fatima pour chaque douce parole prononcée et chaque belle prière provenant de leur coeur purs et limpides, traversant mon âme comme une flèche, me redonnant un grand et nouvel espoir pour demain et repoussant tout sentiment répugnant.

J’exprime également mes sincères remerciements à Madame et Monsieur AZIZI, pour leur gentillesse et leur encouragement durant mes années d’études.

Je ne peux clôturer cette partie de remerciements sans présenter mes vifs remerciements au CNRST qui m’a attribué la bourse d’excellence durant mes trois années d’étude doctorale. Merci pour ce soutien qui m’a été très lucratif.

À la mémoire de mes grands-parents

Puisse Dieu les accueillir dans son infinie Miséricorde

À mes très chers parents

À ma très chère sœur Karima

À mes très chers frères Hamada et Oussama

À tous ceux qui m’ont aidée

À tous ceux qui m’ont soutenue de près ou de loin

À tous ceux qui ont cru en moi

À tous ceux qui m’ont faits confiance

À tous ceux qui ont supporté mes questions incessantes

Je vous dédie ce Manuscrit avec toute la grâce du monde

Résumé

Attirés par l’importance de nouveaux matériaux dans le domaine des nanotechnologies, cette thèse développe cet axe de recherche tout en approfondissant les résultats. Nous avons commencé par introduire les méthodes de simulation et de calcul les plus sophistiquées, telles que : la méthode Monte Carlo, la théorie du champ moyen, la théorie du champ effectif et la méthode de la matrice de transfert. Par la suite, nous avons étudié les propriétés magnétiques et hystérétiques des matériaux. Ensuite, nous avons détaillé certaines de nos contributions correspondantes aux matériaux à base de graphène et des nanomatériaux ferrimagnétiques avec différentes morphologies. Nous avons débattu de l’effet des défauts sur les propriétés thermodynamiques de ces nouveaux matériaux. Une attention particulière a été portée aux paramètres physiques qui influencent la température de compensation. Celle-ci ayant une très grande importance dans le stockage d’information et plus particulièrement dans l’enregistrement thermo-optique. Avec tous ces éléments, nous nous sommes ouverts aux développements les plus récents de la physique de nouveaux matériaux. Enfin, nous avons terminé par la conclusion et des perspectives.

Mots-clefs : Monte Carlo, graphone, graphyne, nanoruban, cœur-coquille, température de compensation, propriétés thermodynamiques et magnétiques

Table des matières

Introduction générale

Le magnétisme est un domaine de la physique de la matière condensée qui ne cesse de nous surprendre par sa grande variété de phénomènes, souvent liés à l’émergence de nouveaux types de matériaux. L’étude concrète du magnétisme a vu le jour après la découverte de l’électron en . Depuis, le magnétisme a connu un essor considérable, qui a conduit à deux découvertes majeures, durant les deux derniers siècles [1, 2]. La première découverte concerne l’étroite liaison entre le magnétisme et l’électricité que nous retrouvons dans l’onde électromagnétique ou la lumière. La seconde découverte, repose sur l’évenement de la théorie de relativité qui a permis de mieux comprendre les mécanismes du magnétisme décrits, comme un effet purement relativiste, en raison du mouvement relatif des électrons dans l’atome.

Le moteur électrique, qui utilise le champ magnétique créé par le courant électrique circulant dans une bobine [1, 2], est considéré comme l’une des applications les plus anciennes du magnétisme. De nos jours, les matériaux magnétiques sont devenus omniprésents dans notre environnement vu leur grand usage dans la technologie moderne. Ils composent de nombreux dispositifs électromécaniques et électroniques, notamment les génératrices, les transformateurs, les moteurs électriques, les postes de radio ou de télévision, les téléphones, les ordinateurs et les appareils audio ou vidéo. Les matériaux magnétiques sont également des constituants indispensables dans une large gamme d’équipements industriels et médicaux.

Au début, seuls les matériaux dans un état massif étaient considérés. Mais avec les nouveaux procédés de fabrication, de nouvelles formes de matériaux sont apparues en commençant par les couches minces, puis ultra-mince et en arrivant aux nanofils, nanotubes, nanorubans et nanoparticules à l’échelle nanométrique.
Une question centrale dans la physique de la matière condensée concerne l’origine du magnétisme dans les matériaux. L’étude du comportement des grandeurs physiques caractéristiques des systèmes étudiés en terme de température a fourni un moyen perspicace qui a permis de répondre à cette question. Pour le cas de l’aimantation, elle disparaît au delà d’une certaine température critique, marquant ainsi une transition magnétique de phase [3].

Le magnétisme existe en deux formes différentes. Le magnétisme intrinsèque qui concerne les propriétés magnétiques relatives à la structure électronique et d’autres principes fondamentaux dans les métaux ou les non-métaux. Ainsi que, le magnétisme extrinsèque qui est relatif aux propriétés des domaines magnétiques et des phénomènes connexes. Dans les matériaux, l’étude de leurs propriétés magnétiques s’avère extrêmement difficile. Cette difficulté est due en grande partie aux nombreux types de comportements magnétiques. En effet, pas moins de quatorze comportements magnétiques différents ont été identifiés dans les solides, nous citons entre autres, le ferromagnétisme, l’antiferromagnétisme, le ferrimagnétisme, l’antiferrimagnétisme et le verre de spin. Cette diversité des comportements magnétiques provient principalement de la multitude des diverses interactions spin-spin observées dans les matériaux [4].

Les propriétés magnétiques des matériaux ont connu une progression énorme au fil du temps avec la réduction des dimensions. En général, la dimensionnalité est l’une des caractéristiques les plus décisives pour un matériau, puisque la même substance présente des propriétés complètement différentes lors de la formation de sa structure dans diverses dimensions ; notamment , , , ou [5]. Bien que les structures de dimensions quasi nulles, telles les points quantiques ou quasi unidimensionnelles comme les nanotubes et les nanofils ou bien tridimensionnelle ont été pour longtemps bien explorées, la recherche sur les cristaux bidimensionnels par contre a demeuré dans l’obscurité peu explorée, jusqu’à la réalisation expérimentale du graphène en . Ce nouveau matériau bidimensionnel est obtenu par l’exfoliation d’une seule couche de graphite, un matériau déjà bien connu par la communauté scientifique, depuis les années . Bien que le graphène soit un conducteur électrique de gap nul non magnétique, il a ouvert la voie à l’étude d’une grande variété de matériaux bidimensionnels [4]. Les matériaux à base de graphène s’avèrent également d’un très grand intérêt pour le magnétisme et la spintronique.

Ce travail de thèse, comportant quatre chapitres et une conclusion générale, est une contribution à l’étude Monte Carlo des propriétés magnétiques des nanomatériaux type graphyne et graphone. Plus précisément, nous visons l’étude des propriétés magnétiques de deux catégories de systèmes à base de graphène de natures extrêmement différentes. La première catégorie est constituée des matériaux ferromagnétiques à base de graphone. Ce nanomatériau est une dérivée magnétique du graphène, dont le magnétisme provient des électrons localisés sur les atomes de carbone qui ne sont pas hydrogénés. C’est un semi-conducteur ferromagnétique, qui montre des propriétés magnétiques pertinentes, aussi bien en pratique, qu’en théorie. Il a été proposé théoriquement en , et synthétisé en [6]. Par ailleurs, la seconde catégorie correspond à des systèmes cœur-coquille ferrimagnétiques avec différentes morphologies, tels le nanoruban et le type graphyne. Le graphyne qui est une autre dérivée du graphène est obtenu avec le mécanisme de croissance vapeur-liquide-solide. Il a été théorisé que le graphyne puisse exister selon différentes géométries, du fait des arrangements multiples des carbones et . Les nanoparticules type graphyne présentent des comportements magnétiques importants et inhabituels tel que l’apparition de la température de compensation qui est d’une très grande importance dans le stockage d’information en particulier dans l’enregistrement thermo-optique [7].

L’étude des propriétés magnétiques des matériaux nécessite l’utilisation de méthodes de calcul et de simulation capables de sonder la matière à l’échelle atomique tout en tenant compte explicitement de la structure électronique des éléments chimiques [8]. Les méthodes théoriques se révèlent être des outils de choix pour modéliser les matériaux à l’échelle atomique voire électronique, et accéder de manière directe à un ensemble de données fondamentales comme les propriétés magnétiques des matériaux [9]. Parmi ces méthodes théoriques, nous citons la théorie du champ effectif [10, 11, 12], qui est une méthode d’approximation qui utilise l’opérateur différentiel dans l’identité de Callen [13] pour calculer les diagrammes de phases des matériaux considérés. La matrice de transfert est un autre moyen très utilisé pour les modèles bidimensionnels. Ce procédé étudie les comportements critiques, quand le système subit une transition de phases ordre-désordre [14]. La méthode de groupe de renormalisation, initiée tout d’abord par Wilson en [15] et généralisée plus tard, étudie les phénomènes critiques dans les systèmes désordonnés. Cette méthode consiste à transformer l’hamiltonien qui décrit le système en un autre, par une transformation qui laisse la fonction de partition invariante [15]. Il existe d’autres méthodes de renormalisation comme la renormalisation phénoménologique, qui ressemble aux méthodes du groupe de renormalisation. Cette méthode utilise les lois d’échelles de la longueur de corrélation des systèmes de différentes tailles.

Les calculs ab-initio constituent un outil essentiel dans la physique de la matière condensée moderne et la chimie quantique moléculaire. Ils permettent les calculs des propriétés des systèmes à électrons corrélés. Le mouvement corrélé des électrons joue un rôle crucial dans l’agrégation des atomes dans les molécules et les solides, les propriétés de transport électronique et de nombreux autres phénomènes physiques majeurs. Actuellement, le moyen le plus utilisé pour inclure les effets de corrélation électronique dans les calculs est la théorie fonctionnelle de la densité (DFT) [16, 17]. Cette méthode qui est rapide et souvent très précise, comporte un certain nombre de limites bien connues, telle la limite des connaissances disponibles de la forme mathématique exacte de la fonctionnelle décrivant l’échange-corrélation. La précision de la forme approximative de la théorie est non-uniforme et non-universelle, et il existe des classes importantes de matériaux pour lesquels, elle donne qualitativement des réponses inadéquates.
Une alternative importante et complémentaire pour les situations, où la précision est primordiale est la méthode Monte Carlo, qui présente de nombreuses caractéristiques attrayantes pour sonder la structure électronique des systèmes réels. Cette méthode est considérée parmi les méthodes mathématiques les plus importantes et techniquement sophistiquées dans la simulation numérique des phénomènes physiques. Elle est basée sur la théorie des probabilités et l’utilisation de l’échantillonnage aléatoire. Elle a pour but majeur de, trouver, mesurer ou vérifier une solution d’un modèle quantitatif, ou de décrire son comportement simulé et ses états transitoires. Cette technique est aujourd’hui largement utilisée dans toutes sortes d’algorithmes numériques d’optimisation. De ce fait, pour de nombreux problèmes complexes, comme la résolution des problèmes analytiques, la détermination des problèmes d’équation différentielle normale et partielle sous des conditions complexes, l’évaluation de la fiabilité de systèmes techniques et d’autres, et la résolution des problèmes de stockage et de transport ou de trajets aléatoires, la méthode Monte Carlo reste souvent la seule solution adéquate.[18]. Monte Carlo est une méthode applicable aux systèmes finis et périodiques, prenant en compte dès le départ la corrélation électronique. Elle donne des résultats cohérents, très précis et en même temps présente la possibilité d’utiliser plusieurs modèles ayant des structures différentes. La méthode Monte Carlo comporte trois types différents, tels que : Monte Carlo statique qui est utilisée pour simuler des phénomènes physiques complexes dans plusieurs domaines scientifiques et appliqués [16, 17, 19, 20], Monte Carlo cinétique qui est employée pour étudier l’évolution des systèmes au cours du temps [21, 22], et Monte Carlo quantique qui est une méthode de simulation probabiliste de l’équation de Schroedinger [16, 23, 24, 25].

Compte-tenu de l’importance des études sur le magnétisme au sein de la communauté de physique de la matière condensée, nous avons souhaité traiter dans ce mémoire de thèse des récents développements dans ce domaine. Ce travail de recherche est organisé comme suit :

Dans le chapitre , nous introduisons les concepts de base de la méthode Monte Carlo. Nous commençons par une introduction sur quelques modèles de spin. Ensuite, nous présentons les notions de base de la simulation Monte Carlo statique. Finalement, nous décrivons quelques algorithmes permettant de générer numériquement des configurations du modèle d’Ising tout en mettant l’accent sur l’algorithme de Metropolis.

Dans le second chapitre, nous consacrons la première partie à la définition des phénomènes critiques, et notamment les transitions de phase. En seconde partie, nous nous intéressons de près à la théorie de champ moyen. Par la suite, nous décrivons brièvement la théorie de champ effectif. À la fin du chapitre, nous présentons explicitement le calcul de la fonction de partition et la fonction de corrélation en utilisant la méthode de la matrice de transfert.

Dans le chapitre , nous abordons l’étude des propriétés magnétiques et hystérétiques caractéristiques des matériaux. Dans un premier temps, nous fixons notre attention sur l’étude des propriétés magnétiques des matériaux. Pour ce fait, nous exposons l’origine du magnétisme et la classification magnétiques des matériaux. Puis, nous donnons les différents types des températures de transition ainsi que la classification de Néel. Ensuite, nous étudions les différents types des interactions magnétiques qui peuvent avoir lieu dans les matériaux magnétiques. Une description complète de l’anisotropie magnétique dans les matériaux magnétiques est également fournit. Nous finissons par la présentation des différents outils de base utiles pour mieux comprendre les propriétés hystérétiques des matériaux.

Le chapitre est consacré à présenter les résumés de nos différentes travaux de recherche avec le contenu détaillé de certains d’entre eux. Nous traitons dans la première section des matériaux ferromagnétiques type graphone. Dans la deuxième section, nous présentons les résultats obtenus pour les matériaux cœur-coquille type nanoruban de graphène et type nanoparticule de graphyne. Dans la troisième section, nous exposons l’effet des défauts et de surface sur les propriétés magnétiques des nanomatériaux.
Nous clôturons ce manuscrit de thèse par une conclusion générale rappelant les principales idées développées tout le long du document. Des perspectives sont également présentées.

Liste des contributions et communications

Au cours de la préparation de cette thèse de doctorat, de nouvelles contributions ont vu le jour dont certaines sont déjà publiées. La liste de ces travaux est la suivante :

Contributions et Publications
Magnetic phase transitions in pure zigzag graphone nanoribbons,
J. Phys. Lett. A 379 (2015) 753-760.
Edge effect on magnetic phases of doped zigzag graphone nanoribbons,
J. Magn. Magn. Mater. 374 (2015) 394-401.
Monte Carlo study of magnetic behavior of core-shell nanoribbon,
J. Magn. Magn. Mater.374 (2015) 639-646.
Graphyne core/shell nanoparticles : Monte Carlo study of thermal and magnetic properties,
Submitted, (2016).
Stone-Wales defected molecular-based nanoribons : Thermal and magnetic propertie,
In preparation.
Monte Carlo study of edge effect on magnetic and hysteretic behaviors of sulfur vacancy defected zigzag nanoribbon,
In preparation.
Surface effect on compensation and hysteretic behavior in surface/bulk nanocube,
Submitted, (2016).

Communications
"Cohérence quantique et effet Kondo dans les nanostructures", présentée lors de l’Ecole "National School: Cryptography and Quantum Information Theory", organisée les 31 Janvier -1 Février 2014 à ENSET-Rabat, Faculté des Sciences, Rabat.
"Etude Monte Carlo des propriétés magnétiques et hystérétiques des systèmes ferrimagnétiques", présentée lors de Colloque Franco-Marocain sur Propriétés des Nouveaux Matériaux à la Faculté des Sciences de Rabat du 4 au 5 Décembre 2014.
"Etude Monte Carlo des propriétés magnétiques et thermodynamiques des systèmes hexagonales", présentée lors des Journées Doctorales nationales CPM-2015 du 11 au 13 Juin 2015 à l’Institut Scientifique et Faculté des Sciences à Rabat.

Chapitre 1 Méthode Monte Carlo pour les modèles de spin

Par principe, tout objet de la nature peut changer de phase à un instant précis sous l’influence de son environnement. Il s’agit de l’instant critique où se produisent des phénomènes critiques dits des transitions de phase. Les transitions de phases sont des phénomènes physique qui décrivent les changements d’état de systèmes physiques. Cependant, l’un des défis majeurs des systèmes physique comportant un grand nombre de particules, est le calcul de la fonction de partition à la limite thermodynamique [17]. Ainsi en absence des solutions exactes qui n’existent que pour le modèle d’Ising et le modèle de Potts à deux dimensions, l’utilisation des méthodes d’approximations s’impose. L’usage des méthodes d’approximation nécessite l’étude des modèles de spin.

Les modèles de spins ont initialement été introduits pour la description du magnétisme dans les matériaux ferromagnétiques. Les modèles classiques, notamment le modèle d’Ising ont joué un rôle important depuis la naissance du magnétisme mais, de nos jours, l’intérêt est plus porté sur les modèles quantiques et les phénomènes qui leur sont associés. Les modèles quantiques de spins ont été étudiés pour la première fois par Bethe en utilisant le modèle de Heisenberg unidimensionnel.

Par ailleurs, les modèles pour lesquels les fonctions de partition sont des solutions exactes sont limités. Ce fait a exigé le développement de différentes techniques approximatives tel les développement en séries, les méthodes des théories de champ et les méthodes numériques.
Le calcul numérique de la fonction de partition par la méthode numérique devient facile à déterminer lorsque le modèle considéré est placé sur un réseau de taille finie [17]. Bien que cette technique permet d’obtenir les propriétés critiques du système, l’exactitude des résultats dépend de la taille considéré. Les simulations par les méthodes numériques apportent des outils complémentaires destinés à mieux comprendre les systèmes [26, 27]. Elles sont essentielles pour l’étude des systèmes complexes, au voisinage de l’instant critique où s’établit la transition. La méthode Monte Carlo est très utilisée et adaptée à cet effet.
Cette méthode est basée sur un jeu d’échantillon d’une représentation d’un système physique pris dans un état donné [28, 18]. A ce titre, elle vise la détermination de manière efficace et rapide des grandeurs physiques liées au système considéré par des procédés probabilistes [18]. Il existe trois types différents de Monte Carlo :
Monte Carlo statique : que nous allons élaborer au cours de ce chapitre. Cette méthode est utilisée pour simuler des phénomènes physiques complexes dans plusieurs domaines scientifiques et appliqués tels que : physique de la matière condensée, physique des hautes énergies, radioactivité, réseaux, économétrie et logistique [16, 17, 19, 20],
Monte Carlo cinétique : est utilisé pour simuler les phénomènes physiques tels que la diffusion de surface, l’épitaxie, l’évolution et la croissance de domaines ou la mobilité des agrégats. Cette méthode permet d’étudier l’évolution des systèmes au cours du temps [21, 22],
Monte Carlo quantique : est une méthode de simulation probabiliste de l’équation de Schroedinger. À son tour, elle comporte différents types utilisés pour les calculs de structure électronique tel : le Monte Carlo variationnel [29], le Monte Carlo diffusionnel [30, 31], le Monte Carlo de la fonction de Green [32, 33], et le Monte Carlo pour les intégrales de chemin [34]. Bien qu’il existe de nombreuses variantes nommées différemment, l’idée de base de la méthode Monte Carlo quantique est toujours la même, à savoir définir une dynamique brownienne pour les électrons et calculer les valeurs moyennes quantiques comme valeurs moyennes le long des trajectoires stochastiques [16, 23, 24, 25].
La technique Monte Carlo, développée suite à de nombreux travaux [16, 21, 29], introduit divers algorithmes de simulation, tous intéressants et présentant des spécificités particulières liées aux systèmes étudiés.

Ce chapitre vise à présenter la méthode Monte Carlo statique. Nous commençons par introduire quelques modèles de spin. Ensuite, nous décrirons les notions de base du Monte Carlo statique. Enfin, nous étalerons les grandes lignes de quelques algorithmes permettant de générer numériquement de différentes configurations du modèle d’Ising.

1.1 Modèles de spin

1.1.1 Modèle d’Ising

Le modèle d’Ising est l’un des modèles les plus simples qui permet de modéliser des systèmes physiques trop complexes à analyser de façon exacte [28]. En raison de sa simplicité et de la richesse de son comportement, le modèle d’Ising suscite depuis son introduction un grand intérêt [35]. Le modèle d’Ising est constitué d’une distribution d’atomes dans un plan. Chacun de ces atomes porte un moment magnétique (magnéton de Bohr) orienté aléatoirement en spin up ou spin down . Ces spins intéragissent entre eux deux à deux, uniquement entre premiers voisins avec une énergie d’interaction .

Figure 1.1: Système d’Ising à deux dimensions où le spin central intéragit uniquement avec les 4 spins indicés 1, 2, 3 et 4.

L’hamiltonien du système est donné par :

(1.1)

désigne une somme sur les sites qui sont les plus proches voisins, est le champ magnétique extérieur, représente le spin au site et est l’interaction d’échange. Les signes (-) dans l’équation (1.1) sont classiques. Ils dictent simplement le choix du signe pour le paramètre d’interaction et le champ externe . La simulation d’un système d’Ising de taille finie par la méthode Monte Carlo permet de calculer les valeurs des grandeurs physiques telles que l’aimantation, l’énergie, la chaleur spécifique et la susceptibilité à une température donnée.

1.1.2 Modèle de Potts

En physique statistique, le modèle de Potts est une généralisation du modèle d’Ising. C’est un modèle d’interaction de spins sur un réseau cristallin [35]. Ce modèle permet de comprendre le comportement des matériaux ferromagnétiques. Il est également utilisé pour expliquer certains phénomènes relatifs à la physique des solides tels que les transitions de phases et les propriétés magnétiques des structures périodiques en couches.
Le modèle de Potts est similaire au modèle d’Ising, hormis le fait que le spin sur chaque site du réseau peut prendre plus de deux valeurs discrètes différentes [36]. Habituellement, ces valeurs sont représentées par des nombres entiers positifs à partir de , et le modèle de Potts à états est celui dans lequel chaque spin peut avoir des valeurs entières . L’hamiltonien s’exprime comme suit :

(1.2)

est le symbole de Kronecker qui satisfait :

(1.3)

Le modèle de Potts est équivalent au modèle d’Ising pour . Il découle que l’équation (1.2) prend la forme suivante :

(1.4)

avec

(1.5)

Cet hamiltonien est équivalent à celui d’Ising plus une constante . Le modèle de Potts avec transite de l’état ferromagnétique à l’état paramagnétique [17].

1.1.3 Modèle Blume-Emery-Griffiths

Le modèle Blume-Emery-Griffiths (BEG) est un modèle de spin qui présente une grande variété de phénomènes critiques et multicritiques [16]. Ce modèle a été introduit au début pour décrire la séparation de phase et la superfluidité dans les mélanges [37]. Par la suite, il a été utilisé pour décrire les systèmes caractérisés par trois états de spin. Il est l’un des rares modèles simples qui donne à la fois la transition de phase du premier ordre et du second ordre. Le modèle Blume-Emery-Griffiths est décrit par l’hamiltonien :

(1.6)

indique que la somme est restreinte aux sites des plus proches voisins,  et sont respectivement, l’interaction bilinéaire et l’interaction biquadratique.  et  sont le champ cristallin et le champ magnétique [38].

1.1.4 Modèles de spin continu

Les modèles de spin continu constituent une autre généralisation du modèle d’Ising. Dans ces modèles, les spins sur le réseau ont une gamme continue de valeurs, plutôt qu’un spectre discret comme dans les modèles cités auparavant [17]. Les deux modèles les plus fréquents sont : le modèle et le modèle d’Heisenberg.
Modèle
Dans le modèle , les spins sont des vecteurs à deux composantes de norme unité, qui peuvent s’orienter dans n’importe quelle direction dans un plan à deux dimensions [36]. L’hamiltonien s’écrit :

(1.7)

est la constante d’échange, est le champ magnétique externe et est un opérateur de spin.
Les spins peuvent être représentés soit par leurs composantes et  qui satisfont la contrainte , soit par une variable angulaire qui indique la direction de spin [17]. Il convient donc de réécrire l’hamiltonien en fonction des variables angulaires :

(1.8)

où les angles et sont des variables angulaires locales qui spécifient les orientations des spins. Le modèle s’étale aussi à l’étude des systèmes tridimensionnels en dépit du fait que les spins sont à deux dimensions.
Modèle d’Heisenberg
Dans le modèle d’Heisenberg les spins sont des vecteurs unitaires à trois dimensions. En effet, les spins d’Heisenberg sont représentés soit par des vecteurs à trois composantes , et  tel que , ou bien par deux angles variables et en coordonnées sphériques [36]. Dans ce cas, l’hamiltonien prend la forme :

(1.9)

est la constante d’échange et , et sont les composantes du champ magnétique suivant l’axe , et respectivement.
Le modèle d’Heisenberg est un modèle de spin qui permet de traiter directement la dépendance en spin d’un système de plusieurs électrons.

1.2 Conditions aux bords

La méthode Monte Carlo étudie les propriétés d’un système fini, alors que l’on s’intéresse généralement aux propriétés d’un système infini. Afin d’être en mesure d’effectuer une extrapolation significative à la limite thermodynamique, la question des conditions aux bords s’impose. Pour traiter les effets de bords il faut tenir compte de la formulation du problème autant bien que de la nature du système. Ceci a donné naissance à différentes approches que nous étalons dans ce qui suit.

1.2.1 Conditions aux limites périodiques

Une façon pour éliminer les limites au bords, connus aussi par limites du réseau, revient à encapsuler un réseau de dimension sur un tore de dimension [27]. Cette condition aux limites périodiques fait que le premier spin dans une rangée considère le dernier spin dans la ligne comme un plus proche voisin et vice-versa [16]. Il en est de même pour les spins en haut et en bas d’une colonne comme il est montré dans la figure (1.2) pour un réseau carré.

Figure 1.2: Conditions aux bords périodiques pour le modèle d’Ising bidimensionnel [16].

Les conditions aux limites périodiques est donc une procédure qui élimine effectivement les effets de bord pour un système qui demeure caractérisé par la taille de réseau fini , puisque la valeur maximale de la longueur de corrélation est limitée à et les propriétés qui en résultent du système vont diffèrer de celles du réseau infini correspondant [16].

1.2.2 Conditions aux limites périodiques vis

Ce type de conditions considère une limite enroulable. Pour ce fait, les spins sur le réseau sont représentés en tant qu’entrées dans un vecteur unidimensionnel enroulé autour du système [16]. Dans cette approche, le dernier spin dans une ligne et le premier spin dans la ligne suivante sont proches voisins comme illustré sur la figure (1.3) pour le modèle d’Ising bidimensionnel.

Figure 1.3: Conditions aux limites périodiques vis pour le modèle d’Ising bidimensionnel [16].

Outre la limitation de la longueur de corrélation maximale possible, une couture est introduite en raison de la forme de bord périodique. Cela signifie que les propriétés du système ne seront pas complètement homogènes. Dans la limite de réseau de taille infinie, cet effet devient négligeable. Cependant, pour des systèmes finis, il y a une différence systématique en ce qui concerne les conditions aux limites complètement périodiques qui peuvent ne pas être négligeables [16].

1.2.3 Conditions aux limites antipériodiques

Si les conditions aux limites périodiques sont appliquées avec un changement de signe du couplage aux bords, alors une interface sera introduite dans le système. Cette opération mène aux conditions aux limites antipériodiques [39]. Les conditions aux limites antipériodiques s’effectuent selon la direction normale à l’interface que l’on souhaite étudier, tandis que les conditions aux limites périodiques seront appliquées dans l’autre direction.

1.2.4 Conditions aux limites de bord libre

C’est un autre type de limite qui ne comporte aucun type de connexion entre la fin d’une ligne et de n’importe quelle autre ligne dans un réseau. Par conséquent, les spins à la fin d’une ligne ne possèdent aucun proche voisin comme présenté sur la figure (1.4) pour le modèle d’Ising bidimensionnel.

Figure 1.4: Conditions aux limites de bord libre pour le modèle d’Ising bidimensionnel [16].

De plus, la limite de bord libre n’introduit pas seulement la bavure de taille finie, mais elle tient compte également des effets de surfaces et de coins dûs aux liaisons pendantes sur les bords puisque d’importants changements peuvent se produire près des surfaces où le comportement du système n’est pas homogène [16]. Notons aussi que les limites de bord libres constitue l’approche la plus réaliste pour certaines situations tel que la modélisation du comportement des particules ou des nanoparticules superparamagnétiques. En général, les propriétés des systèmes avec des limites de bord libre diffèrent des propriétés du système infini avec des conditions aux limites périodiques [39].

1.3 Monte Carlo statique

Dans cette section, nous présenterons les éléments de base de la simulation Monte Carlo, qui est crucial dans la compréhension des simulations Monte Carlo thermiques réalisées au cours des trente dernières années.

1.3.1 Équation Maîtresse et estimateur

L’idée de base de la méthode Monte Carlo est de simuler la fluctuation thermique aléatoire du système d’un état à un autre. La probabilité de trouver le système dans l’état au cours de la simulation est égale au poids de cet état dans le système réel. Ceci nécessite le choix d’une règle qui régit le passage d’un état à un autre au cours de la simulation [17]. C’est ce que nous allons discuter dans ce qui suit. Mais tout d’abord, nous allons commencer par introduire les processus physiques qui donnent l’équation maîtresse :

(1.10)

est la probabilité d’observer le système dans la configuration à l’instant connaissant la distribution des probabilités à l’instant initial alors que présente la probabilité de passer de la configuration à par unité de temps. Les sont choisis de façon que la solution d’équilibre de l’équation maîtresse relève de la distribution de Boltzmann est donnée par :

(1.11)

est l’énergie de l’état , est la constante de Boltzmann, est la température et est la fonction de partition du système.
L’équation maîtresse (1.10) est une équation qui donne la variation de la probabilité de chaque état ; c’est-à-dire l’évolution de la probabilité. L’avantage de cette équation est d’avoir une bonne estimation des grandeurs physiques à partir de petits échantillons. Néanmoins, cette équation induit des erreurs statistiques, parmi lesquelles on a un bruit dans qui peut induire des dérivées mal calculées. Il est donc préférable de calculer plusieurs moyennes. Par exemple au lieu de considérer la chaleur spécifique comme étant :

(1.12)

il est préférable de travailler avec la forme suivante :

(1.13)

est le beta thermodynamique et est le nombre total de particules.
Il s’ensuit que la recherche et le calcul des valeurs moyennes présentent les principaux objectifs des simulations Monte Carlo [28, 20]. Mais pour accélérer les calculs, il est préférable d’utiliser les probabilités.
La valeur moyenne d’une quantité , par sommation sur tous les états du système et sur leurs probabilités respectives, est donnée par :

(1.14)

Cette moyenne ne peut être calculée que pour de systèmes très petits. Pour des systèmes de grande taille, la somme sur un sous-ensemble d’états induit des imprécisions. La méthode Monte Carlo consiste à choisir au hasard un sous-ensemble d’états à partir d’une distribution à spécifier [40].
Supposons que le choix porte sur le sous-ensemble . L’estimation de la quantité s’écrit comme suit :

(1.15)

L’équation (1.15) donne une estimation de sur un modèle réduit où plus le nombre d’états dans l’échantillon augmente, plus on se rapproche de la vraie valeur de . Ceci peut être exprimé comme suit :

(1.16)

Il reste alors à déterminer pour une meilleure expression de . Pour ce faire, il suffit de considérer une équiprobabilité entre les états du système. C’est-à-dire tous les sont égaux [17], d’où

(1.17)

En fait, c’est le plus mauvais choix.

1.3.2 Principes de la simulation Monte Carlo

La simulation Monte Carlo repose sur trois paramètres importants :

l’échantillon important,

la balance détaillée,

le taux d’acceptation.
Échantillon important
La méthode Monte Carlo consiste à choisir un échantillon qui contient les états dominants. Cette opération s’appelle l’échantillon important [41]. Les états de l’échantillon ne sont pas équiprobables, mais distribués selon la distribution de probabilité de Boltzmann donnée dans l’équation (1.11) qui permet d’améliorer l’estimation. Cette distribution est la forme la plus connue de l’échantillon important [17]. Dans ce cas, l’estimation devient :

(1.18)

Ce résultat est mieux que l’estimation obtenue en équation (1.17) lorsque tous les sont égaux. Avant de présenter la balance détaillée et le taux d’acceptation, il sera plus fondamental d’exposer tout d’abord le processus de Markov et l’ergodicité.
Processus de Markov
La partie la plus complexe dans la simulation Monte Carlo est la génération d’un ensemble aléatoire appropriée des états en fonction de la distribution de probabilité de Boltzmann [39]. En d’autres termes, on ne peut pas choisir au hasard certains états puis les accepter ou les rejeter avec une probabilité proportionnelle à puisque le résultat n’en sera pas meilleur que celui issu d’un échantillonnage hasardeux. Dans ce cas, nous risquons de répéter virtuellement certains états autant que leurs probabilités sont exponentiellement petites [42]. Pour éviter cette contrainte, presque tous les algorithmes des méthodes Monte Carlo utilisent le processus de Markov pour choisir les états utilisés [36].
Le processus de Markov [35] n’est autre que le mécanisme qui génère un état du système à partir d’un autre connu [20, 24]. L’état généré n’est pas toujours le même. Ainsi, il parcourt le système à la recherche d’un nouvel état avec une probabilité de transition à laquelle il impose deux conditions [17] :

ne pas varier avec le temps,

dépendre uniquement des propriétés du système sur les états et .
Ceci traduit le fait que la probabilité de transition d’un état à un autre du processus de Markov est toujours constante et devra satisfaire à la relation de fermeture [17] :

(1.19)

n’est pas obligatoirement nul.
Dans la simulation Monte Carlo, le processus de Markov est utilisé à plusieurs reprises pour générer une chaîne de Markov des états [28, 23]. Cette chaîne est généralement utilisés lorsqu’on veut partir de n’importe quel état du système et générer, par exemple, une suite de configurations de certains états précis (finaux). Pour parachever cet objectif, il est utile d’imposer deux nouvelles conditions au processus de Markov, notamment l’ergodicité et la balance détaillée [17].
Ergodicité
La condition d’ergodicité est le fait que le système peut à partir d’un état donné passer lors du processus de Markov par n’importe quel état initial pour un nouvel état.
Ceci est nécessaire pour générer des états avec leurs probabilités de Boltzmann. Chaque état apparaît avec une certaine probabilité non nulle dans la distribution de Boltzmann. L’accès de cet état à partir d’un autre état distinct de ne provoquera aucun problème. Le processus de l’état initial est repris pour le nouvel état [20].
La condition d’ergodicité nous montre que nous pouvons prendre certaines probabilités de transition nulles dans le processus de Markov. Ce ne sera pas le cas pour deux états distincts que nous prenons dans un espace restreint [41]. En pratique, la plupart des algorithmes de Monte Carlo configure toutes les probabilités de transition à zéro. Il nous faut, dans ce cas, faire attention à ne pas créer un algorithme qui ne satisfait pas la condition d’ergodicité.
Balance détaillée
La condition de la balance détaillée assure que la distribution de probabilité de Boltzmann générée après que le système considéré atteint l’équilibre, est la plus grande de toutes les autres distributions [16].
Si le système est en équilibre, les taux de transition à partir d’un état et vers le même état sont égaux [17]. On écrit donc :

(1.20)

À partir de

(1.21)

on a

(1.22)

Pour tout ensemble de probabilités de transitions qui satisfait cette équation, la distribution sera un état d’équilibre à partir de la dynamique du processus de Markov. Malheureusement, répondre à cette équation ne nous garantit pas d’atteindre à partir de n’importe quel état du système [39].
En effet, la probabilité de transition peut être déterminée comme un élément de la matrice . Cette matrice est appelée matrice de Markov ou la matrice stochastique pour le processus de Markov.
Considérant , si nous mesurons le temps mis dans chaque état le long de la chaîne de Markov, la probabilité d’être dans l’état à un instant est donnée par [17] :

(1.23)

Sous forme matricielle, on obtient :

(1.24)

est le vecteur dont les coordonnées sont les différents poids statistiques .
À l’équilibre, le processus de Markov satisfera à :

(1.25)

Cependant, il est également possible au processus d’atteindre l’équilibre dynamique par rotation de sur toute la chaîne. Une telle rotation est appelée cycle limite [17].
Dans ce cas , est :

(1.26)

est la longueur du cycle limite.
Si nous choisissons une probabilité de transition (ou de manière équivalente une matrice de Markov) pour satisfaire à la relation (1.22), nous garantirons que la chaîne de Markov aura une simple probabilité d’équilibre de distribution . Mais, elle peut aussi avoir un nombre quelconque de cycles limites de la forme (1.26). Cela signifie que rien ne garantit que l’état d’équilibre généré aura la probabilité de distribution désirée [39].
Pour contourner ce problème, nous appliquerons une condition supplémentaire à nos probabilités de transition [17] :

(1.27)

C’est la condition de la balance détaillée. Puisque l’équation (1.20) est une sommation de (1.27), sur les différents états, alors chaque état satifaisant (1.27) va satisfaire (1.20). Nous pouvons également montrer que cette condition élimine les cycles limites [41]. En effet, la balance détaillée nous enseigne qu’en moyenne, le système peut quitter un état vers un autre indifféremment du chemin choisi et après un temps infini. Une fois qu’on enlève les cycles limites de cette façon, il est facile de vérifier que le système aura toujours une probabilité de distribution lorsque . À , , tendra exponentiellement vers le vecteur propre correspondant à la plus grande valeur propre de (propriété des matrices stochastiques) [17].
On remarque que les grandes valeurs propres des matrices de Markov pourront être équivalentes à partir de l’équation (1.26). Si les cycles limites de la forme (1.27) étaient présents, nous pourrions aussi avoir des valeurs propres qui seraient des racines complexes. Mais la condition de balance détaillée nous prévient de cette possibilité.
Taux d’acceptation
Après l’avoir décrit précédemment comme élément important pour l’obtention rapide et efficace d’un système à l’état d’équilibre, nous avons aussi démontré que nous pouvons générer un processus de Markov avec lequel nous pouvons retrouver de nouveaux états avec une probabilité qui puisse répondre à l’équation (1.27). Cependant, il est difficile de prévoir le processus de Markov approprié pour générer un nouvel état à partir d’un autre état précédent avec un bon ensemble de probabilités de transition [17]. D’après l’équation de la balance détaillée, les probabilités de transition doivent satisfaire :

(1.28)

Cela implique que les inconnues à déterminer ne dépendent pas de la fonction , mais uniquement du facteur de Boltzmann relié à l’énergie de chaque état qui peut être calculée [40].
Les méthodes standards ne s’appliquent pas toujours aux nouveaux problèmes. On construit de nouveaux algorithmes pour des besoins spécifiques. Même si on peut proposer plusieurs processus de Markov, on peut ne pas trouver celui qui donne le bon ensemble de probabilités de transition. De ce fait, il est nécessaire d’avoir une probabilité de transition souhaitée par l’introduction d’une condition d’acceptation du taux de transition qui va permettre de trouver les bonnes probabilités de transition à partir d’un processus de Markov quelconque [41]. L’idée sous-jacente de cette astuce est la suivante : nous avons mentionné précédemment que nous pouvons introduire une probabilité de transition de base . Si nous fixons dans l’équation (1.28), nous obtenons la tautologie simple . Ce qui signifie que la condition de la balance détaillée est toujours satisfaite pour , peu importe la valeur de cette probabilité. De fait, nous disposons d’une certaine flexibilité sur la façon dont nous choisissons les autres probabilités de transition avec . Nous pouvons donc ajuster la valeur de n’importe quelle , telle que la règle de fermeture (1.19) soit vérifiée par une simple compensation de cet ajustement avec un autre ajustement équivalent, mais opposée à . Le seul point que nous devons examiner est que ne dépasse pas ses limites (soit ). Si nous faisons un ajustement de ce genre dans , nous pouvons également nous organiser afin que l’équation (1.28) soit satisfaite, en faisant simultanément un changement en , afin de préserver le rapport entre les deux [17].
Il s’avère que ces considérations nous donnent effectivement assez de liberté sur la possibilité de donner aux probabilités de transition n’importe quel ensemble de valeurs que nous souhaitons en ajustant les valeurs des probabilités [40]. Pour voir cela, décomposons la probabilité de transition en deux parties :

(1.29)

est la probabilité de sélection ; probabilité pour que notre algorithme génère l’état final à partir de l’état initial et étant le taux d’acceptation (appelé aussi probabilité d’acceptation). Le rapport d’acceptation indique que si on commence à et que notre algorithme génère , on devrait accepter et on change l’état du système à , pendant une fraction de temps . Le reste du temps, il reste dans . L’acceptation est arbitraire entre zéro et un (). Opter pour toutes les transitions, est équivalent à choisir , qui est la plus grande valeur qu’elle puisse prendre et signifie que nous ne pourrons jamais quitter l’état [17]. Ceci nous donne une liberté totale du choix de la probabilité de sélection , puisque la contrainte (1.28) ne fixe que le rapport :

(1.30)

, donc et peuvent prendre n’importe quelle valeur souhaitée.
La relation de fermeture (1.19) est toujours satisfaite, car le système doit se retrouver dans un état après chaque étape de la chaîne de Markov, même si cet état est celui avec lequel nous avons commencé [40].
Donc, pour créer un algorithme de Monte Carlo, nous devons élaborer un algorithme qui génère de nouveaux états aléatoires à partir des anciens états , avec un ensemble des probabilités . Puis, nous acceptons ou rejetons ces états avec le rapport d’acceptation choisi pour satisfaire l’équation (1.30). Cela satisfait, alors, toutes les exigences pour les probabilités de transition et produira ainsi une chaîne des états qui apparaîtront avec leurs probabilités de Boltzmann lorsque le système atteint l’équilibre [41].
Il est, toutefois un point que nous devons toujours garder à l’esprit qui reste l’un des aspects les plus importants dans la conception des algorithmes de Monte Carlo. Si le rapport d’acceptation est faible, l’algorithme paraîtra immobile, ce qui bloque naturellement l’évolution du système. Il nous faut donc trouver un algorithme qui puisse évoluer entre les états pour un large échantillonnage. En effet, pour éviter que l’algorithme soit lent, on choisit un rapport d’acceptation proche de 1. Une façon de le faire est de noter que l’équation (1.30) fixe seulement le rapport de taux d’acceptation entre deux états distincts dans n’importe quelle direction. Avec comme contrainte que ce taux soit compris entre zéro et un, bien que mathématiquement, on puisse le multiplier proportionnellement par un coefficient réel [40].
Cependant, la meilleure option à prendre pour garder des rapports d’acceptation élevés est d’essayer d’incarner dans la probabilité de sélection autant que nous le pouvons de dépendance de des caractéristiques des états et et d’en mettre le moins possible dans le taux d’acceptation. Un bon algorithme est celui dans lequel la probabilité d’acceptation est généralement proche de 1 [17].

1.3.3 Temps d’équilibre

La méthode Monte Carlo ne prend pas en compte toutes les configurations possibles. Mais, les configurations négligées en majorité sont les moins probables et donc influencent peu les résultats. Effectivement, les configurations peu probables sont naturellement éliminées par la fonction de probabilité de transition. Par exemple, il est quasi impossible que la configuration d’un spin orienté vers le bas dans un domaine de spins orientés vers le haut se réalise pour une température assez faible [16, 17].
On fait tourner le programme suffisamment longtemps pour que le résultat ne dépende pas de la configuration initiale afin d’atteindre l’équilibre [17, 28, 41]. Ce temps s’appelle temps d’équilibre [17, 28, 41]. Après l’équilibre, on calcule sur une nouvelle période l’estimation de la grandeur physique qui nous intéresse par la relation :

(1.31)

Pour visualiser l’équilibre, on trace une quantité physique, comme l’aimantation ou l’énergie. Après l’équilibre, la quantité physique se stabilise et seules les fluctuations restent. Dans certains cas, le système reste piégé dans un minimum local d’énergie. Pour éviter cette situation, on part de différentes configurations initiales [16, 17].

1.3.4 Mesures

Dès que nous sommes sûrs que le système a atteint l’équilibre, nous pouvons mesurer la moyenne des grandeurs physiques qui nous intéresse [17]. Pour calculer l’énergie, on utilise qui a été calculée au cours de la simulation :

(1.32)

et pour calculer l’aimantation, on utilise :

(1.33)

avec :

(1.34)

d’où :

(1.35)

Nous pouvons également calculer la moyenne des carrés de l’énergie et de l’aimantation pour définir les quantités de chaleur spécifique et de susceptibilité magnétique. À ce titre, la chaleur spécifique est donnée par :

(1.36)

et la susceptibilité magnétique est donnée par :

(1.37)

1.4 Algorithmes de simulation

1.4.1 Algorithme de Métropolis

L’algorithme de Métropolis est l’une des plus efficaces et simples solutions en ce qui concerne les problèmes de simulation en transition de phase [17]. Nous utiliserons cet algorithme pour illustrer les nombreux concepts généraux impliqués dans un calcul de Monte Carlo, y compris l’équilibre, la mesure de valeurs moyennes et le calcul des erreurs.
L’algorithme Metropolis suit les étapes de la méthode Monte Carlo définies dans le taux d’acceptation [35]. Nous choisissons un ensemble de probabilités de sélection pour chaque transition . Puis on opte pour un ensemble de probabilités d’acceptation tel que l’équation (1.30) réponde à la condition de la balance détaillée. Cet algorithme consiste à générer, à partir d’une configuration de départ, de nouvelles configurations par la modification aléatoire des coordonnées d’une ou de plusieurs particules [16, 26, 35]. La probabilité de sélection doit être définie pour satisfaire à la condition d’ergodicité. On considère la dynamique de retourner un seul spin à chaque étape [26, 28]. En effet, l’utilisation de cette dynamique garantit que la différence d’énergie entre deux états successifs ne dépasse pas , où est le nombre des sites voisins d’un site donné et l’interaction d’échange [17]. Avec la dynamique de retourner un seul spin à chaque étape, nous possédons spins différents et donc états possibles à atteindre à partir d’un état donné . Ainsi, il y a probabilités de sélection qui ne sont pas nulles [16]. Chacune d’entre elles prend alors la valeur suivante :

(1.38)

Avec ces probabilités de sélection, la condition de la balance détaillée [41], se révèle sous la forme suivante :

(1.39)

où nous choisissons :

(1.40)

La constante de proportionnalité est arbitraire et la plus grande valeur de est . Ainsi, pour assurer on détermine

(1.41)

L’algorithme est d’autant plus efficace que est grand. Cela nous donne :

(1.42)

qui n’est pas Metropolis, mais en utilisant cette probabilité d’acceptation, nous pouvons effectuer une simulation Monte Carlo du modèle d’Ising [17]. Toutefois, la simulation sera inefficace car elle rejette la majorité des transitions. La solution à ce problème est la suivante : dans l’équation (1.40), nous avons pris une forme fonctionnelle particulière pour le taux d’acceptation, mais la condition de la balance détaillée (1.39), n’avait pas besoin de prendre cette forme [16, 17]. De ce fait, comme nous avons indiqué dans le taux d’acceptation, pour que l’algorithme soit encore plus efficace, il convient que le rapport d’acceptation soit maximal. C’est-à-dire proche de 1. Dans ce cas, pour voir comment cela fonctionne, nous supposerons que et . Afin de satisfaire l’équation (1.39), doit alors prendre la valeur . Ainsi, l’algorithme optimal est celui où :

(1.43)

qui est l’algorithme de Metropolis lancé pour le modèle d’Ising avec la dynamique de retournement d’un seul spin [16, 17].
Implémentation de l’algorithme Metropolis
La première étape de l’algorithme Metropolis consiste à générer un nouvel état à partir de l’état . Les deux états diffèrent par le retournement d’un seul spin. Il importe de choisir un spin au hasard sur le réseau et de considèrer son renversement . Ensuite, on calcule à partir de l’expression de l’hamiltonien [17]. La variation d’énergie entre les deux états est donc :

(1.44)
(1.45)

À ce titre, nous pouvons écrire :

(1.46)

et donc

(1.47)

L’algorithme consiste donc à calculer à partir de l’équation (1.47), puis en suivant la règle donnée dans l’équation (1.43) [16] :
Si on accepte le retournement .
Si on admet le retournement avec la probabilité .
On génère alors un nombre aléatoire , tel que . Si , on consent au retournement , sinon on ne fait rien.
On tire ensuite un nouveau site au hasard et on recommence la procédure.
Dans la pratique, l’algorithme de Metropolis se présente de la manière suivante (voir figure (1.5)) :

Figure 1.5: Critère d’acceptation de la méthode de Metropolis.

Le calcul d’une moyenne thermique ne peut commencer que lorsque le système atteint l’équilibre. Ainsi, dans une simulation Monte Carlo, il y a généralement deux périodes : la première, où partant d’une configuration initiale, on réalise une dynamique afin d’amener le système près de l’équilibre ; la seconde, où le système évolue au voisinage de l’équilibre et le calcul des moyennes est réalisé [17]. En l’absence de critère précis, la durée de la première période n’est pas facilement prévisible. Une première technique a été pendant longtemps, de suivre l’énergie instantanée du système en considérant que l’équilibre est atteint lorsque l’énergie se stabilise autour d’une valeur quasi-stationnaire [16].

1.4.2 Algorithme du bain thermique (heat-bath algorithm)

L’algorithme du bain thermique est également un algorithme de retournement d’un seul spin [17, 39, 41], mais cet algorithme s’avère plus efficace pour trouver les états énergiquement désirables des spins dans le cas où nous avons un seul spin avec plusieurs états [39]. Le principe de cet algorithme est [17] :
On choisit un spin au hasard sur le réseau.
On définit une nouvelle valeur pour , c’est-à-dire une valeur entre et avec la probabilité :

(1.48)

est l’énergie du système lorsque . Il est clair que cet algorithme satisfait l’ergodicité et la balance détaillée. La probabilité de transition de à est et la probabilité de retour est , donc :

(1.49)

ainsi, la balance détaillée est satisfaite. Cet algorithme est plus efficace que celui de Metropolis pour un grand , car il choisit l’état qui a un plus grand poids que celui de Boltzmann [16].

1.4.3 Algorithme de BKL (Bortz, Kalos et Lebowitz)

L’algorithme de BKL ou la méthode Monte Carlo à temps continu est une autre technique à adjoindre à notre processus de Markov [43]. Cet algorithme n’est pas suffisamment utilisé comme il devrait être. Néanmoins, il reste une technique importante et puissante pour de nombreux calculs [41].
Considérons un système à basse température. Ces systèmes ont toujours un problème où le passage d’un état à un autre est très lent et le taux d’acceptation faible. En effet, le système passe la majorité du temps dans l’état fondamental. Dans cette technique, l’étape de temps dépend de l’estimation du temps pendant lequel le système reste dans son état avant de passer à un nouvel état. On donne un grand poids dans , aux états qui sont occupés le plus longtemps. Soit  le temps que le système passe dans un état avant de passer à un autre. Le temps est obtenu à partir de [17]. La probabilité de rester dans après étapes est :

(1.50)

et le temps  est donné par :

(1.51)

Si on peut calculer , alors au lieu d’attendre plusieurs étapes Monte Carlo pour que le changement soit accepté, on suppose cela et on passe directement à un autre état. Ainsi, l’algorithme Monte Carlo à temps continu se compose des étapes suivantes [17, 41, 43] :
on évalue les probabilités à partir de . On choisit un nouvel état avec une probabilité proportionnelle à et on change l’état de système à ,
on calcule et on le recalcule à chaque étape,
on incrémente le temps de pour tenir compte du temps que le système passe dans le même état.
Cette technique très élégante pour les problèmes de la simulation d’un système à basse température. Elle possède quelques inconvénients qu’il faut prendre en compte :
dans la première étape, le nombre d’états croît exponentiellement avec la taille du système et le temps pour calculer les probabilités est long,
souvent l’ensemble des probabilités de transition ne change pas beaucoup d’une étape à une autre. Il est possible de ne stocker à chaque étape que les nouvelles transitions.

1.4.4 Algorithmes d’amas

Algorithme de Wolff

Lorsque la longueur de corrélation devient importante au voisinage de la température critique , des domaines se forment, où tous les spins pointent dans la même direction. Il est alors très difficile pour l’algorithme de Metropolis de retourner ce domaine, car il doit le faire spin par spin avec une grande probabilité de rejet du retournement [17]. En deux dimensions retourner un spin coûte et en utilisant la valeur de , la probabilité d’accepter un tel retournement est :

(1.52)

La probabilité de retourner un spin du bord est plus grande. La solution à ce problème a été proposée par l’algorithme de Wolff. L’idée de base est de retourner tout le domaine en un seul coup. Ces algorithmes sont appelés aussi algorithmes de retournement d’amas ou algorithmes de l’amas. Au cours des dernières années, ils sont très appréciés pour toutes sortes de problèmes, car il s’avère qu’au moins dans le cas du modèle d’Ising, ils enlèvent presque entièrement la difficulté du ralentissement critique [16, 17].
Pour trouver les amas à retourner, on tire un spin au hasard et on cherche si ses voisins sont dans le même état. Puis, les voisins des voisins et ainsi de suite. Le nombre d’amas retournés dépend de la température et les tailles des amas croîssent lorsque la température décroît. Par conséquent, nous avons qui est la probabilité d’ajouter un spin à un amas, lorsque la température baisse. Après l’ajout des spins, on retourne l’amas avec un rapport d’acceptation qui dépend du coût d’énergie pour le retournement [17].
Considérons le passage de l’état à l’état par le retournement d’un amas. Le point important est l’état des spins au bord de l’amas, où certains de ces spins sont dans le même état que l’amas. Les liaisons entre ces spins et l’amas doivent être brisées lorsque l’amas est retourné. De ce fait, les liaisons qui ne sont pas brisées lors du passage de à le seront lors du passage de à [16]. Considérons maintenant le passage de à . Supposons qu’il y a liaisons brisées. Ces liaisons correspondent aux spins sur le bord, qui sont dans le même état que l’amas, mais qui n’appartiennent pas à l’amas. La probabilité de ne pas les ajouter à l’amas est . Si est le nombre de liaisons brisées dans le flip inverse, alors la probabilité cette fois est : [16]. La condition de la balance détaillée [17] est donc :

(1.53)

et sont les taux d’acceptation dans les deux directions et , d’où

(1.54)

pour :

(1.55)

Les deux taux d’acceptation sont égaux et on les pose égaux à 1 quel que soit les états et . Ce choix définit l’algorithme de l’amas de Wolff pour le modèle d’Ising, dont les détails de cet algorithme sont les suivants [44] :
on choisit au hasard sur le réseau le spin de départ,
on visite les sites voisins du site choisi. S’ils sont dans le même état que le spin choisi, on les ajoute à l’amas avec la probabilité .
pour chaque spin ajouté dans l’étape précédente, on cherche, parmi ses voisins, ceux qui pointent dans la même direction. On les cumule à l’amas avec la probabilité .
on retourne l’amas.
Cet algorithme satisfait aux conditions de l’ergodicité et de la balance détaillée. Il convient de noter que la probabilité croît lorsque la température décroît . Elle est nulle à infini et égale à 1 à et donc les amas sont grands à basse température [16, 17]. L’algorithme de Wolf est plus rapide que celui de Metropolis au voisinage de mais un peu plus lent à haute et basse température. A basse température, l’algorithme de Wolff, engendre une nouvelle configuration à chaque étape Monte Carlo, alors que Metropolis génère une nouvelle configuration indépendante après chaque étape Monte Carlo par site [44].
Nous avons examiné jusqu’à maintenant deux algorithmes de simulation du modèle d’Ising, à savoir l’algorithme de Metropolis et l’algorithme de Wolff destinées à simuler le modèle en équilibre. Pour étudier le comportement du modèle loin de la température critique, l’algorithme de Metropolis offre un moyen simple et efficace d’obtenir des résultats qui ne peuvent être améliorés par autres algorithmes. Près de , l’algorithme de Wolff est meilleur par rapport à l’algorithme de Metropolis, même si il s’avère plus complexe que ce dernier.

Algorithme de Swendsen-Wang

Après les algorithmes de Metropolis et Wolff quoique similaires, l’algorithme de Swendsen-Wang [45] reste très important. Dans cet algorithme, on construit les amas comme l’algorithme de Wolff et on lie les spins voisins, dans le même état, avec la probabilité . Mais au lieu de retourner un seul amas, on retourne tous les amas, chacun avec la probabilité [16, 17, 39, 41, 45]. Cet algorithme satisfait à l’ergodicité ainsi qu’à la balance détaillée. La preuve de ce fait est exactement la même que celle de l’algorithme de Wolff [39, 41, 45]. Le choix de la probabilité assure que la probabilité d’acceptation ne dépend ni de ni de . La mise à jour, de tous les sites du réseau, se fait après chaque mouvement. Pour mesurer le temps de corrélation, on mesure le nombre d’étapes Monte Carlo et non pas le nombre d’étapes par site comme dans Metropolis [16, 17]. Il est légèrement plus lent que Metropolis à haute température. Par contre, à basse température, il reste identique à l’algorithme de Wolff. Mais l’algorithme de Wolff est deux fois plus rapide que celui de Swendsen-Wang [16, 17, 39, 41].

Algorithme de Niedermayer

L’algorithme de Niedermayer est une extension de l’algorithme de Wolff et de Swendsen-Wang et s’applique à tous les types de modèle [46]. Dans cet algorithme, Niedermayer utilise deux probabilités : la première pour lier deux spins voisins dans le même état et la deuxième pour lier deux spins voisins dans deux états opposés [17]. Dans le cas du modèle Ising, l’énergie de liaison d’une paire est donnée par :

(1.56)

La probabilité de faire un lien entre deux spins voisins est fonction de cette énergie . Dans le modèle d’Ising, l’énergie ne peut prendre que deux valeurs . Nous avons alors deux valeurs de , soit et . D’autre part, l’algorithme de Neidermayer obéit à l’ergodicité sauf pour quel que soit . Il répond aussi à la balance détaillée [17]. Par définition, la probabilité d’avoir spins parallèles sur le bord et antiparallèles à l’amas est . Dans la direction opposée, la probabilité s’écrit [46]. Comme l’algorithme de Wolf, le passage de à coûte :

(1.57)

La balance détaillée est vérifiée par les taux d’acceptation :

(1.58)

Niedermayer a choisi les , qui satisfont à :

(1.59)

La solution de Niedermayer de cette équation était avec qui est un paramètre arbitraire. Toutefois, la probabilité est positive [17]. En outre, nous pouvons écrire :

(1.60)

Ce qui définit l’algorithme de Niedermayer qui peut être résumé ainsi [46] :
si quel que soit , on peut poser que les taux d’acceptation sont égaux à 1 pour n’importe quel mouvement. Ceci revient à chercher la plus grande valeur de . Pour le modèle d’Ising la plus grande valeur est ,
si on augmente au-dessus de , s’approche de 1 et l’amas devient de plus en plus grand. Ceci permet de contrôler la taille des amas formés par l’algorithme,
si est inférieure à la valeur maximale de , alors le membre droit de l’équation (2.52) n’est pas égal à 1 et on ne peut pas choisir le taux d’acceptation égal à 1. Pour le modèle d’Ising, si nous choisissons , nous avons :

(1.61)

on choisit l’un des taux égal à 1 et l’autre obéit à cette équation. Ainsi, l’algorithme obéit à la balance détaillée,
si est inférieure à la valeur minimale de qui est pour le modèle d’Ising, alors et les taux d’acceptation sont donnés par :

(1.62)

Ce qui est l’équivalent de l’algorithme de Metropolis. Ainsi, en faisant varier on passe de l’algorithme Metropolis à l’algorithme de Wolff.

1.4.5 Algorithme de Kawasaki

L’algorithme le plus simple qui conserve la valeur de l’aimantation après le flip est l’algorithme de Kawasaki [16, 17]. Il se définit ainsi :
on choisit au hasard une paire de spins adjacents et ,
on échange leurs valeurs, pour préserver l’aimantation totale. Puis on calcule la différence d’énergie entre les états et du système avant et après le changement,
la probabilité d’acceptation du mouvement est donnée par :

(1.63)

Cet algorithme est ergodique et vérifie la balance détaillée. En effet, le nombre de paires est et la probabilité de choisir une paire à n’importe quelle étape de l’algorithme devient :

(1.64)

La probabilité de choisir la même paire pour un mouvement inverse est la même :

(1.65)

Dans ce chapitre, nous avons détaillé la méthode Mont Carlo statique utilisée ayant pour finalité d’étudier les propriétés magnétiques des systèmes physiques.
Dans une première partie nous avons présenté quelques modèles de spins, étudiés en mécanique statistique. Ces modèles nous ont aidé à modéliser tous les phénomènes au cours desquels des effets collectifs se sont produits du fait des interactions locales entre les particules.
Puis, nous avons abordé les principes de la simulation Monte Carlo à l’équilibre thermique afin d’étudier les phénomènes critiques. Nous avons développé les trois idées de base de la simulation Monte Carlo, à savoir : l’échantillon important, la balance détaillée et le taux d’acceptation.
Enfin, nous avons exposé quelques algorithmes de la méthode Monte Carlo pour déterminer les propriétés d’une variété de différents modèles d’équilibre. Nous avons étudié aussi certaines astuces utilisées pour mettre en œuvre les algorithmes de Monte Carlo en matière de programmes informatiques.
Ce chapitre porte sur la méthode Monte Carlo statique et afin d’examiner les propriétés magnétiques des matériaux. Dans le prochain chapitre, nous présentons d’autres méthodes sophistiquées ; telles que celles de l’approximation de champ moyen, la théorie du champ effectif et la matrice de transfert. Ces dernières ont joué un rôle important dans la description des phénomènes critiques de transitions de phase.

Chapitre 2 Étude des phénomènes critiques

Les phénomènes critiques ont fait l’objet de plusieurs études approfondies. La plupart d’entre eux résultent de la divergence de la longueur de corrélation. Provenant de la divergence, ces phénomènes incluent les divergences en loi de puissance de certaines quantités décrites par les exposants critiques tels que : l’universalité, le comportement fractal, et la rupture d’ergodicité [47, 48]. De nombreuses et nouvelles idées ont été développées afin de mieux comprendre le comportement critique de systèmes ayant des structures cristallographiques de plus en plus complexes [47].
Au cours d’une transition de phases les interactions entre champs et particules brisent spontanément la symétrie du système [49]. La notion de symétrie et de sa brisure, permettent de classer les différentes phases, tout en expliquant les transitions de phase qui les séparent [50].
La compréhension des phénomènes critiques nécessite l’usage de théories tels que : la théorie du champ moyen, la théorie du champ effectif et la méthode de la matrice de transfert. Les grandes lignes de ces théories seront étalées le long de ce chapitre tout en mettant l’accent sur la description théorique des transitions de phases. Notons au passage que pour mieux illustrer l’origine physiques des phénomènes critiques nous utiliserons le modèle simple d’Ising.

2.1 Phénomènes critiques

En physique, les phénomènes critiques sont les phénomènes qui se déroulent aux points critiques où les grandeurs physiques varient très rapidement et présentent ainsi des discontinuités. Le point critique est une singularité du diagramme de phase. En ce point, la divergence des grandeurs thermodynamiques caractéristiques du système est donnée par des lois de puissances caractérisées par des exposants critiques. Les phénomènes critiques incluent également les relations d’échelle entre les différentes quantités, l’universalité, le comportement fractal et la brisure d’ergodicité [50]. Cette section est consacrée à une brève description des phénomènes critiques et des transitions de phase.

2.1.1 Singularité

Le comportement critique est caractérisé par des singularités de certaines fonctions thermodynamiques. Cette singularité peut être une discontinuité ou une divergence [51]. Les singularités sont interprétées comme des changements dans la structure de phase du système, où plus précisément comme des transitions de phase [50]. Les transitions de phase sont classées selon la nature de la singularité typique qui s’y produit. Les singularités des propriétés thermodynamiques, telles que la chaleur spécifique et la susceptibilité, sont très faibles et très difficiles à détecter expérimentalement. De plus, elles n’apparaissent qu’à la limite thermodynamique pour des systèmes infiniment grands [51]. Cependant, un système fini ne peut pas présenter une vraie singularité à une température non-nulle, mais une température pseudo-critique qui peut être liée au pic pointu de la chaleur spécifique et de la susceptibilité. Dans le développement des fluctuations critiques, les singularités des grandeurs thermodynamiques et des fonctions de corrélation ont la même origine physique. La connexion est assurée par le théorème de fluctuation-dissipation [50].

2.1.2 Transition de phase

Une transition de phase est un phénomène spectaculaire, qui correspond à une transformation qualitative et quantitative des propriétés macroscopiques d’un système thermodynamique. Elle est provoquée par la variation typique d’un paramètre intensif de contrôle de système tel que la température, la pression, le champ électrique ou magnétique. Les états de la matière ont des propriétés physiques uniformes. Au cours d’une transition de phase, certaines propriétés d’un système thermodynamique donné, changent de manière discontinue [51]. L’exemple fondamental le plus connu de transition de phase est celui de l’eau, qui passe de l’état solide à l’état liquide et de l’état liquide à l’état gazeux. Mais, il existe d’autres transitions de phases. Par exemple : les transitions magnétiques, superfluides, supraconductrices, d’ordre-désordre dans les alliages métalliques et les cristaux liquides. Les transitions de phase se produisent lorsque l’énergie libre d’un système devient non-analytique pour certaines variables thermodynamiques [49]. Généralement, cette condition résulte de l’interaction d’un grand nombre de particules dans un système et n’apparaît pas dans les systèmes de petites tailles. Il est important de noter que ces transitions peuvent se manifester dans des systèmes non-thermodynamiques à température nulle. Les exemples incluent les transitions de phase quantiques, dynamiques et topologiques. Dans ces systèmes, d’autres paramètres prennent la place de la température. À titre d’exemple, la probabilité de connexion qui remplace la température pour les réseaux de percolation [52].

2.1.3 Brisure de symétrie et paramètre d’ordre

Les transitions de phase impliquent souvent un processus de brisure de symétrie [50]. Généralement, dans une transition de phase, les phases à haute température sont plus symétriques que les phases à basse température dues à la rupture spontanée de symétrie. En physique de matière condensée, il existe plusieurs types de brisure de symétrie [49] dont la brisure par formation de réseau qui a lieu lors de la transition entre un fluide et un solide cristallin, la brisure par inversion qui se produit lors de la transition ferromagnétique, et la brisure de la symétrie de jauge qui apparaît dans les supraconducteurs.
Pour décrire les transitions de phase avec changement de symétrie, Landau a introduit la notion de paramètre d’ordre qui est considéré comme étant une mesure du degré d’ordre de l’état d’un système physique lors d’une transition de phase [47]. En effet, le paramètre d’ordre est uniforme et nul au-dessus de la température critique dans la phase symétrique (désordonnée). Cependant, Il est non-uniforme et non-nul au dessous de la température critique dans la phase moins symétrique (ordonnée). Du point de vue théorique, les paramètres d’ordre proviennent de la brisure de symétrie. Lorsque cela se produit, il est nécessaire d’introduire une ou plusieurs variables supplémentaires pour décrire l’état du système. Le paramètre d’ordre est défini différemment dans les différents types de systèmes physiques.

Nature de la transition Paramètre d’ordre
gaz-liquide masse volumique
para-ferromagnétique aimantation
para-antiferromagnétique aimantation des sous réseaux
para-ferroélectrique polarisation
ordre-désordre dans un alliage binaire probabilité d’occupation des deus sites
démixion d’un binaire AB fractions molaires
supraconductivité gap supraconducteur
superfluidité fonction d’onde superfluide
Tableau 2.1: Quelques exemples des paramètres d’ordre utilisés selon la nature de transition.

Dans le tableau (2.1), nous donnons quelques exemples de paramètres d’ordre. Le choix du paramètre d’ordre est une question phénoménologique pas toujours évidente. Cependant, les paramètres d’ordre peuvent également être définis pour des transitions qui ne brisent pas la symétrie. Certaines transitions de phase, comme celles dans les supraconducteurs, peuvent avoir des paramètres d’ordre à plusieurs degrés de liberté. Dans ce cas par exemple, le paramètre d’ordre peut être un nombre complexe, un vecteur ou même un tenseur, dont la magnitude tend vers zéro à la transition de phase. Par ailleurs, on associe un champ conjugué au paramètre d’ordre qui traduit l’état du système. Pour les systèmes magnétiques, le champ conjugué n’est autre que le champ magnétique [52].

2.1.4 Classification des transitions de phase

On distingue deux classes de transitions de phase qui sont les transitions d’Ehrenfest et les transitions de Landau.
Classification d’Ehrenfest
Ehrenfest est le premier à avoir classifier les transitions de phase selon le degré de non-analyticité de l’énergie ou la continuité des dérivées d’ordre de l’énergie libre. Dans la classification d’Ehrenfest, on distingue deux types de transition de phase : transition du premier ordre et transition du second ordre [53].
Transition du premier ordre
Les transitions de phase du premier ordre présentent une discontinuité dans la dérivée première de l’énergie libre par rapport à une variable thermodynamique. Les transitions entre les trois états standards (solide, liquide, gaz), sont des transitions de phase du premier ordre, car la dérivée première de l’énergie libre par rapport au potentiel chimique est discontinue [50].
Transition du second ordre
Une transition de phase est du second ordre, si la dérivée première de l’énergie libre est continue, mais la dérivée seconde est en revanche discontinue. Au cours de cette transition, le passage d’une phase à une autre se fait de façon continue. Par exemple dans le cas de la transition de phase entre l’état ferromagnétique et l’état paramagnétique. La classification d’Ehrenfest peut être généralisée pour définir des transitions multicritiques d’ordre supérieur [50].
La classification d’Ehrenfest permet de mettre en évidence les différences et les similitudes entre diverses transitions. Cependant, elle reste inexacte au voisinage d’une transition de phase puisqu’elle ne prévoit pas la possibilité de divergence à la limite thermodynamique.
Classification de Landau
En , Landau a remarqué que la transition de phase sans chaleur latente peut s’accompagner d’un changement de la symétrie du système comme dans le cas de la classification d’Ehrenfest. Alors, il a proposé deux types de transition de phase :
Transition sans paramètre d’ordre
Lors de ces transitions, le paramètre d’ordre est discontinu et les groupes de symétrie des deux phases ne sont pas inclus l’un dans l’autre [49]. Ces transitions sont toujours des transitions du premier ordre au sens d’Ehrenfest.
Transition avec paramètre d’ordre
Dans ce type de transition, le groupe de symétrie de la phase ordonnée est inclus dans le groupe de la phase la plus symétrique (désordonnée). Au sens de Landau, cette transition est du premier ordre si le paramètre d’ordre est discontinu au point de transition et elle est du second ordre si le paramètre d’ordre est continu à la transition [49].
Pour les transitions sans changement de symétrie, le formalisme de Landau définit un pseudo-paramètre d’ordre vu la difficulté de déterminer le paramètre d’ordre.
Dans ce qui suit, nous allons présenter quelques méthodes d’approximation de la physique statistique qui sont nécessaires pour étudier la singularité des grandeurs physiques au voisinage d’une transition de phase.

2.2 Approximation de champ moyen

L’approximation de champ moyen a été développée pour étudier les systèmes à corps en interaction [47]. Elle consiste à remplacer le problème des spins en interaction par un problème de spins indépendants placés dans un champ moyen produit par l’ensemble des autres spins [50]. Dans cette section, nous allons développer l’approximation du champ moyen pour le modèle d’Ising.

2.2.1 Équation du champ moyen

L’approximation du champ moyen consiste à prendre un seul spin pour calculer son énergie en remplaçant tous les autres spins par leur valeur moyenne [48]. L’hamiltonien englobant le champ magnétique extérieur pour le modèle d’Ising est :

(2.1)

est la constante de couplage, le champ magnétique extérieur et le moment magnétique des spins. Dans l’approximation du champ moyen, l’énergie du spin est donnée par :

(2.2)

Selon que le spin est dirigé vers le haut ou vers le bas , l’énergie du site a deux valeurs et ,

(2.3)

est la valeur moyenne de et est le nombre des plus proches voisins.
La valeur moyenne de est donnée en terme de la constante de Boltzmann et la température par l’expression suivante [48] :

(2.4)

L’équation du champ moyen est attribuée par :

(2.5)

qui s’écrit sous la forme :

(2.6)

Cette équation est la base de l’approximation du champ moyen que l’on peut résoudre graphiquement. Dans ce qui suit, nous présentons les solutions graphiques de l’équation (2.6) qui font apparaître l’existence d’une transition ferromagnétique.

2.2.2 Transition ferromagnétique

Les solutions de l’équation (2.6) résultent des intersections de la ligne droite avec la courbe présentées dans la figure (2.1).

Figure 2.1: La solution graphique de l’équation (2.6) [48].

Il est utile de rappeler que la courbe a deux asymptotes verticales à , et que sa tangente à l’origine possède une pente unitaire [48].
Ainsi, si , l’équation d’état (2.6) admet trois solutions, deux solutions métastables ou instables ayant et une solution physique pour .
L’approximation du champ moyen prédit une aimantation spontanée pour le cas [54]. Cette aimantation satisfait :

(2.7)

Ainsi, la température de transition est :

(2.8)

2.2.3 Comportement au voisinage de la transition de phase

Au voisinage de la température critique, l’aimantation est faible ce qui permet d’utiliser le développement en série suivant [48],

(2.9)

Afin d’étudier le comportement du système au voisinage de la température critique, nous présentons dans ce qui suit les grandeurs physiques telles que l’aimantation, la suceptibilité et la chaleur spécifique. Pour simplifier nous supposons que le champ magnétique extérieur est nul .
Aimantation
En utilisant l’équation (2.8) avec , nous trouvons que :

(2.10)

est la température réduite définie par :

(2.11)

L’équation du champ moyen s’écrit :

(2.12)

d’où

(2.13)

Au voisinage de , l’aimantation spontanée varie comme suit :

(2.14)

Pour examiner le comportement singulier de la susceptibilité et la chaleur spécifique au voisinage de la température critique, nous les représentons par la suite comme des lois de puissance.
Susceptibilité
Nous distinguons deux cas en absence du champ magnétique :
(a)
Au voisinage de , le terme avec dans l’équation (2.9) peut être négligé :

(2.15)

d’où

(2.16)

Pour une configuration du système de spins, l’aimantation totale est donnée par [50] :

(2.17)

Dans ce cas la susceptibilité magnétique varie comme :