Construction parasismiquethumb| La Tokyo Skytree, la deuxième plus grande tour au monde (derrière le Burj Khalifa) qui, du haut de ses , a parfaitement résisté au séisme de 2011 de magnitude 9, démontrant l'efficacité des constructions parasismiques japonaises. La construction parasismique ou construction antisismique est la réalisation de bâtiments et infrastructures résistant aux séismes. Elle implique l'étude du comportement des bâtiments et structures sujets à un chargement dynamique de type sismique.
Seismic retrofitSeismic retrofitting is the modification of existing structures to make them more resistant to seismic activity, ground motion, or soil failure due to earthquakes. With better understanding of seismic demand on structures and with our recent experiences with large earthquakes near urban centers, the need of seismic retrofitting is well acknowledged. Prior to the introduction of modern seismic codes in the late 1960s for developed countries (US, Japan etc.) and late 1970s for many other parts of the world (Turkey, China etc.
RisqueLe risque est la possibilité de survenue d'un événement indésirable, la probabilité d’occurrence d'un péril probable ou d'un aléa. Le risque est une notion complexe, de définitions multiples car d'usage multidisciplinaire. Néanmoins, il est un concept très usité depuis le , par exemple sous la forme de l'expression , notamment pour qualifier, dans le sens commun, un événement, un inconvénient qu'il est raisonnable de prévenir ou de redouter l'éventualité.
Seismic analysisSeismic analysis is a subset of structural analysis and is the calculation of the response of a building (or nonbuilding) structure to earthquakes. It is part of the process of structural design, earthquake engineering or structural assessment and retrofit (see structural engineering) in regions where earthquakes are prevalent. As seen in the figure, a building has the potential to 'wave' back and forth during an earthquake (or even a severe wind storm). This is called the 'fundamental mode', and is the lowest frequency of building response.
Risque sismiquethumb|upright=1.2|Cet immeuble s'est cassé et effondré parce qu'il était construit sur des sédiments insuffisamment compacts susceptibles de subir des phénomènes différenciés de liquéfaction lors de certains séismes, à une certaine fréquence et intensité de tremblement du sol (ici séisme de 2010 au Chili). Dans ce cas, le lieu et le bâtiment étaient vulnérables. Le risque sismique désigne la combinaison entre l'aléa sismique, les biens et les populations qui y sont soumises, et leur vulnérabilité face à cet aléa.
Exploration de donnéesL’exploration de données, connue aussi sous l'expression de fouille de données, forage de données, prospection de données, data mining, ou encore extraction de connaissances à partir de données, a pour objet l’extraction d'un savoir ou d'une connaissance à partir de grandes quantités de données, par des méthodes automatiques ou semi-automatiques.
Jeux d'entrainement, de validation et de testEn apprentissage automatique, une tâche courante est l'étude et la construction d'algorithmes qui peuvent apprendre et faire des prédictions sur les données. De tels algorithmes fonctionnent en faisant des prédictions ou des décisions basées sur les données, en construisant un modèle mathématique à partir des données d'entrée. Ces données d'entrée utilisées pour construire le modèle sont généralement divisées en plusieurs jeux de données .
Séismevignette|upright=1.5|Carte de la répartition mondiale des séismes en 2010, montrant leur distribution essentiellement le long des frontières des grandes plaques tectoniques (dorsales dans les océans, ceinture de feu du Pacifique et ceinture alpine sur les continents). Un séisme ou tremblement de terre est une secousse du sol résultant de la libération brusque d'énergie accumulée par les contraintes exercées sur les roches. Cette libération d'énergie se fait par rupture le long d'une faille, généralement préexistante.
Big dataLe big data ( « grosses données » en anglais), les mégadonnées ou les données massives, désigne les ressources d’informations dont les caractéristiques en termes de volume, de vélocité et de variété imposent l’utilisation de technologies et de méthodes analytiques particulières pour créer de la valeur, et qui dépassent en général les capacités d'une seule et unique machine et nécessitent des traitements parallélisés. L’explosion quantitative (et souvent redondante) des données numériques permet une nouvelle approche pour analyser le monde.
Space mappingThe space mapping methodology for modeling and design optimization of engineering systems was first discovered by John Bandler in 1993. It uses relevant existing knowledge to speed up model generation and design optimization of a system. The knowledge is updated with new validation information from the system when available. The space mapping methodology employs a "quasi-global" formulation that intelligently links companion "coarse" (ideal or low-fidelity) and "fine" (practical or high-fidelity) models of different complexities.