- EAN13
- 9782743024192
- ISBN
- 978-2-7430-2419-2
- Éditeur
- Lavoisier / Tec & Doc
- Date de publication
- 20/11/2018
- Collection
- EDF R&D
- Nombre de pages
- 562
- Dimensions
- 24 x 15,5 x 2,5 cm
- Poids
- 950 g
- Langue
- français
- Fiches UNIMARC
- S'identifier
Événements naturels extrêmes
Théorie statistique et mitigation du risque
Préface de Emmanuel Garnier
Lavoisier / Tec & Doc
Edf R&D
Offres
Avant que survienne un événement naturel extrême (crues, pluie
diluvienne, tempête, tremblement de terre...), il est essentiel de
pouvoir disposer de méthodes et d’outils permettant de réduire le risque
d’exposition des populations, des ouvrages de génie civil et des
installations industrielles, en particulier lorsque celles-ci agissent
en interaction avec l’environnement. La théorie statistique des valeurs
extrêmes constitue l’un des ingrédients majeurs des outils de mesure et
d’aide à la mitigation des risques. L’appréhension moderne de ces
risques extrêmes nécessite de nombreuses extensions de la théorie de
base. En effet, un besoin accru de précision – quel risque peut
caractériser une zone non instrumentée, ou possédant un faible
historique ? – une injonction à considérer des cumuls d’aléas plutôt
qu’un aléa unique, ainsi que la prise en compte de tendances climatiques
non-stationnaires caractérisent ces études modernes. La fusion
d’informations hétérogènes, spatiales et temporelles, et la recherche de
données extrêmes dans des bases de plus en plus massives deviennent
indispensables. Mais l’emploi de ces outils, au contact des
applications, ne peut également se passer d’analyse critique et de
conseils de praticiens.
Cet ouvrage présente l’ensemble de cette méthodologie, de façon
transverse à différentes spécialités scientifiques telles que
l’hydrologie, l’océanographie, la climatologie ou la météorologie.
Partant de la caractérisation probabiliste des événements extrêmes
naturels, celle-ci mène à la quantification d’indicateurs aussi
importants que les niveaux de retour, les fréquences de dépassements
conjoints de seuils extrêmes ou les tests de tendances, en permanence
nourrie par des exemples traités par les chercheurs d’EDF. Les grands
théorèmes fondateurs de modélisation probabiliste et d’estimation
statistique, les mécanismes d’analyse spatiale et temporelle, l’étude
des structures de corrélation dans les extrêmes et les plus récents
résultats de modélisation statistique bayésienne sont décrits et leur
application est discutée en détail. Accessible à l’étudiant, au
professeur, à l’ingénieur, au chercheur, cet ouvrage s’adresse également
aux actuaires et aux compagnies d’assurance et de réassurance.
diluvienne, tempête, tremblement de terre...), il est essentiel de
pouvoir disposer de méthodes et d’outils permettant de réduire le risque
d’exposition des populations, des ouvrages de génie civil et des
installations industrielles, en particulier lorsque celles-ci agissent
en interaction avec l’environnement. La théorie statistique des valeurs
extrêmes constitue l’un des ingrédients majeurs des outils de mesure et
d’aide à la mitigation des risques. L’appréhension moderne de ces
risques extrêmes nécessite de nombreuses extensions de la théorie de
base. En effet, un besoin accru de précision – quel risque peut
caractériser une zone non instrumentée, ou possédant un faible
historique ? – une injonction à considérer des cumuls d’aléas plutôt
qu’un aléa unique, ainsi que la prise en compte de tendances climatiques
non-stationnaires caractérisent ces études modernes. La fusion
d’informations hétérogènes, spatiales et temporelles, et la recherche de
données extrêmes dans des bases de plus en plus massives deviennent
indispensables. Mais l’emploi de ces outils, au contact des
applications, ne peut également se passer d’analyse critique et de
conseils de praticiens.
Cet ouvrage présente l’ensemble de cette méthodologie, de façon
transverse à différentes spécialités scientifiques telles que
l’hydrologie, l’océanographie, la climatologie ou la météorologie.
Partant de la caractérisation probabiliste des événements extrêmes
naturels, celle-ci mène à la quantification d’indicateurs aussi
importants que les niveaux de retour, les fréquences de dépassements
conjoints de seuils extrêmes ou les tests de tendances, en permanence
nourrie par des exemples traités par les chercheurs d’EDF. Les grands
théorèmes fondateurs de modélisation probabiliste et d’estimation
statistique, les mécanismes d’analyse spatiale et temporelle, l’étude
des structures de corrélation dans les extrêmes et les plus récents
résultats de modélisation statistique bayésienne sont décrits et leur
application est discutée en détail. Accessible à l’étudiant, au
professeur, à l’ingénieur, au chercheur, cet ouvrage s’adresse également
aux actuaires et aux compagnies d’assurance et de réassurance.
S'identifier pour envoyer des commentaires.
Autres contributions de...
-
Genève face à la catastrophe 1350-1950, Un retour d'expérience pour une meilleur résilience urbaineEmmanuel GarnierÉditions Slatkine29,00
-
Climat et révolutions, autour du Journal du négociant rochelais Jacob Lambertz, 1733-1813Emmanuel Garnier, Frédéric SurvilleCroît vif
-
Un massif forestier et son histoire, la forêt de Saint-AntoineEmmanuel GarnierOffice national des forêts