~ubuntu-branches/ubuntu/maverick/openturns/maverick

« back to all changes in this revision

Viewing changes to doc/src/ExamplesGuide/OpenTURNS_ExamplesGuide.tex

  • Committer: Bazaar Package Importer
  • Author(s): Fabrice Coutadeur
  • Date: 2009-08-18 18:14:38 UTC
  • mfrom: (1.1.3 upstream)
  • Revision ID: james.westby@ubuntu.com-20090818181438-copqi92r4z7y0ejc
Tags: 0.13.1-1ubuntu1
debian/python-openturns.install: update to use python* and *-packages.
This fix a FTBFS with python2.6.  (LP: #350437)

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
 
2
 
%Copyright (c)  2005  EDF-EADS-PHIMECA.
3
 
%  Permission is granted to copy, distribute and/or modify this document
4
 
%  under the terms of the GNU Free Documentation License, Version 1.2
5
 
%  or any later version published by the Free Software Foundation;
6
 
%  with no Invariant Sections, no Front-Cover Texts, and no Back-Cover
7
 
%  Texts.  A copy of the license is included in the section entitled "GNU
8
 
%  Free Documentation License".
9
 
 
10
 
\documentclass[11pt]{article}
11
 
\usepackage{makeidx}
12
 
\usepackage{index}
13
 
\usepackage[dvips]{graphicx}
14
 
\usepackage{color}
15
 
\usepackage{psfrag}
16
 
\usepackage{longtable}
17
 
\usepackage{mdwtab}
18
 
\usepackage{hhline}
19
 
\usepackage{amsmath}
20
 
\usepackage{amssymb}
21
 
\usepackage{fancyhdr}
22
 
 
23
 
 
24
 
\usepackage{Math_Notations}
25
 
\usepackage{listings}
26
 
 
27
 
\newcommand{\espace}{{\strut\\}}
28
 
\newcommand{\D}{{\mathrm{d}}}
29
 
 
30
 
\newcommand{\requirements}[2]{{
31
 
\noindent%
32
 
\begin{tabular}{||p{2.3cm}||p{12.7cm}||}
33
 
  \hhline{|t:=:t:=:t|} 
34
 
  Requirements\vfill & \parbox{12cm}{
35
 
                   {#1}
36
 
                 } \\
37
 
  \hhline{|:=::=:|}
38
 
  Results\vfill      & \parbox{12cm}{
39
 
                   {#2}
40
 
                 } \\
41
 
  \hhline{|b:=:b:=:b|}
42
 
\end{tabular}
43
 
}}
44
 
 
45
 
\newcommand{\longrequirements}[2]{{
46
 
\noindent%
47
 
\begin{longtable}{||p{2.3cm}||p{12.7cm}||}
48
 
  \hhline{|t:=:t:=:t|} 
49
 
  Requirements\vfill & \parbox{12cm}{
50
 
                   {#1}
51
 
                 } \\
52
 
  \hhline{|:=::=:|}
53
 
  Results\vfill      & \parbox{12cm}{
54
 
                   {#2}
55
 
                 } \\
56
 
  \hhline{|b:=:b:=:b|}
57
 
\end{longtable}
58
 
}}
59
 
 
60
 
\setlength{\textwidth}{18.5cm}
61
 
\setlength{\textheight}{23cm}
62
 
\setlength{\hoffset}{-1.04cm}
63
 
\setlength{\voffset}{-1.54cm}
64
 
\setlength{\oddsidemargin}{0cm}
65
 
\setlength{\evensidemargin}{0cm}
66
 
\setlength{\topmargin}{0cm}
67
 
\setlength{\headheight}{1cm}
68
 
\setlength{\headsep}{0.5cm}
69
 
\setlength{\marginparsep}{0cm}
70
 
\setlength{\marginparwidth}{0cm}
71
 
\setlength{\footskip}{1cm}
72
 
\setlength{\parindent}{0cm}
73
 
 
74
 
\pagestyle{fancy}
75
 
\fancyhf{} \rhead{\bfseries \thepage} \lhead{\bfseries \nouppercase Open TURNS -- Example Guide}
76
 
\rfoot{\bfseries \copyright 2005 EDF - EADS - PhiMeca} \lfoot{}
77
 
 
78
 
\makeindex
79
 
 
80
 
\begin{document}
81
 
 
82
 
\begin{titlepage}
83
 
\vspace*{2cm}
84
 
\begin{center}
85
 
{\huge \bf Examples Guide}
86
 
\input{GenericInformation.tex}
87
 
\end{center}
88
 
 
89
 
\end{titlepage}
90
 
 \newpage
91
 
\tableofcontents
92
 
 
93
 
 
94
 
% -------------------------------------------------------------------------------------------------
95
 
\newpage
96
 
\section{Example 1 : deviation of a cantilever beam}
97
 
 
98
 
\subsection{Presentation of the study case}
99
 
 
100
 
This Example Guide regroups several Use Cases described in the Use Cases Guide in order to show one example of a complete study. \\
101
 
 
102
 
This example has been presented in the ESREL 2007 conference in the paper : {\itshape Open TURNS, an Open source initiative to Treat Uncertainties, Risks'N Statistics in a structured industrial approach}, from A. Dutfoy(EDF R\&D), I. Dutka-Malen(EDF R\&D), R. Lebrun (EADS innovation Works) \& all.\\
103
 
 
104
 
Let's consider the following analytical example of a cantilever beam, of Young's modulus $E$, length $L$, section modulus $I$. One end is built in a wall and we apply a concentrated bending load at the other end of the beam. The deviation (vertical displacement) y of the free end is equal to : 
105
 
$$
106
 
y(E, F, L, I) = \frac{FL^3}{3EI}
107
 
$$
108
 
 
109
 
\begin{figure}[Hhbtp]
110
 
\begin{center}
111
 
  \psfrag{F}{F}
112
 
  \psfrag{E}{E}
113
 
  \psfrag{L}{L}
114
 
  \psfrag{I}{I}
115
 
  \psfrag{a}{a}
116
 
  \psfrag{e}{e}
117
 
  \includegraphics[width=10cm]{poutre.pdf}
118
 
\end{center}
119
 
\caption{cantilever beam under a ponctual bending load.}
120
 
\end{figure}
121
 
 
122
 
 
123
 
The objective of this study is to evaluate the influence of uncertainties of the input data $(E, F, L, I)$ on the deviation $y$.\\
124
 
 
125
 
We consider a steel beam with a hollow square section of length $a$ and of thickness $e$. Thus, the flexion section inertie of the beam is equal to $I = \displaystyle \frac{a^4 - (a-e)^4}{12}$. The beam length is $L$. The Young's modulus is $E$. The charge applied is $F$.\\
126
 
 
127
 
The  values used for the deterministic studies are : 
128
 
$$
129
 
\left\{
130
 
\begin{array}{lcl}
131
 
 E & = & 3.0e9 Pa\\
132
 
 F & = & 300 N\\
133
 
 L & = & 2.5m\\
134
 
 I & = & 4.0e-6 m^4.
135
 
\end{array}
136
 
\right.
137
 
$$
138
 
which corresponds to the point $(3.0e7, 30000, 250, 400)$ when the lenght $L$ is given in unit $cm$ et noo in the standard unit $m$.\\
139
 
 
140
 
 
141
 
This example treats the following points of the methodology : 
142
 
\begin{itemize}
143
 
  \item[$\bullet$] Min/Max approach : evaluation of the range of the output variable of interest (deviation)
144
 
\begin{itemize}
145
 
  \item with a deterministic experiment plane,
146
 
  \item with a random experiment plane,
147
 
\end{itemize}
148
 
  \item[$\bullet$] Central tendancy approach : evaluation of the central indicators of the output variable of interest (deviation)
149
 
\begin{itemize}
150
 
  \item Taylor variance decomposition,
151
 
  \item Random sampling,
152
 
  \item Kernel smoothing of the distribution of the output variable of interest,
153
 
\end{itemize}
154
 
  \item[$\bullet$] Threshold exceedance approach : evaluation of the probability that the output variable of interest (deviation) 30$\geq 30cm$
155
 
\begin{itemize}
156
 
  \item FORM,
157
 
\item Monte Carlo simulation method,
158
 
\item Directional Sampling method,
159
 
 \item Importance Sampling method.
160
 
\end{itemize}
161
 
\end{itemize}
162
 
 
163
 
 
164
 
\subsection{Probabilistic modelisation}
165
 
 
166
 
\subsubsection{Marginal distributions}
167
 
 
168
 
The random modelisation of the input data is the following one :  
169
 
\begin{itemize}
170
 
  \item[$\bullet$] E = Beta$(*)$ where $r = O.93,t = 3.2,a = 2.8e7,b = 4.8e7$,
171
 
  \item[$\bullet$] F  = LogNormal, where the mean value is $E[F] = 30000$, the standard deviation is $\sqrt{Var[F]} = 9000$ and the min value is $min(E) = 15000$,
172
 
  \item[$\bullet$] L  = Uniform on $[250; 260]$,
173
 
  \item[$\bullet$] I  = Beta$(*)$ where $r = 2.5,t = 4.0,a = 3.1e2,b = 4.5e2$.
174
 
\end{itemize}
175
 
(*) We recall here the expression of the probability density function of the Beta distribution : 
176
 
$$
177
 
\displaystyle  p(x) = \frac{(x-a)^{(r-1)}(b-x)^{(t-r-1)}}{(b-a)^{(t-1)}B(r,t-r)}\boldsymbol{1}_{[a,b]}(x)
178
 
$$
179
 
where $r>0$, $t>r$ and $a < b$.
180
 
 
181
 
 
182
 
 
183
 
\subsubsection{Dependence structure}
184
 
 
185
 
We suppose that the probabilstic variables $L$ and $I$ are dependent. This dependence may be explained by the manufacturing process of the beam : the thiner the beam has been laminated, the longer it is.\\
186
 
We modelise the dependence structure by a Normal copula, parameterized from the Spearman correlation coefficient of both correlated variables : $\rho_S = -0.2$.\\
187
 
Then, the Spearman correlation matrix of the input random vector $(E,F,L,I)$ is : 
188
 
$$
189
 
R_S = \left (
190
 
\begin{array}{cccc}
191
 
  1 & 0 & 0 & 0 \\
192
 
  0 & 1 & 0 & 0 \\
193
 
  0 & 0 & 1 & -0.2 \\
194
 
  0 & 0 & -0.2 & 1
195
 
\end{array}
196
 
\right)
197
 
$$
198
 
 
199
 
 
200
 
 
201
 
 
202
 
 
203
 
\subsection{Min/Max approach}
204
 
 
205
 
 
206
 
\subsubsection{Deterministic experiment plane}
207
 
 
208
 
We consider a composite experiment plane, where : 
209
 
\begin{itemize}
210
 
  \item the levels of the centered and reducted grid are +/-0.5, +/-1., +/-3.,
211
 
  \item the unit per dimension (scaling factor) is given by the standard deviation of the marginal distribution of the corresponding variable,
212
 
  \item the center is the mean point of the input random vector distribution.
213
 
\end{itemize}
214
 
 
215
 
 
216
 
 
217
 
\subsubsection{Random sampling}
218
 
 
219
 
We evaluate the range of the deviation from a random sample of size $10^4$.
220
 
 
221
 
 
222
 
 
223
 
\subsection{Central tendancy approach}
224
 
 
225
 
 
226
 
\subsubsection{Taylor variance decomposition}
227
 
 
228
 
We evaluate the mean and the standard deviation of the deviation thanks to the Taylor variance decomposition method. The importance factors of that method rank the influence of the input uncertainties on the mean of the deviation.
229
 
 
230
 
\subsubsection{Random sampling}
231
 
 
232
 
We evaluate the mean and standard deviation of the deviation from a random sample of size $10^4$.
233
 
 
234
 
\subsubsection{Kernel smoothing}
235
 
 
236
 
We fit the distribution of the deviation with a Normal kernel, which bandwith is evaluated from the Scott rule, from a random sample of size $10^4$.\\
237
 
We superpose then the kernel smoothing pdf and the normal one which mean and standard deviation are those of the random sample of the output variable of interest in order to graphically check if the Normal model fits to the deviation distribution.
238
 
 
239
 
\subsection{Threshold exceedance approach}
240
 
 
241
 
We consider the event where the deviation exceeds $30 cm$.\\
242
 
 
243
 
\subsubsection{FORM}
244
 
 
245
 
We use the Cobyla algorithm to research the design point, which requires no evaluation of the gradient of the limit state function. We parameterize the Cobyla algorithmwit hte following parameters : 
246
 
\begin{itemize}
247
 
  \item Maximum Iterations Number = $10^3$,
248
 
  \item Maximum Absolute Error = $10^{-10}$,
249
 
  \item Maximum Relative Error = $10^{-10}$,
250
 
  \item Maximum Residual Error = $10^{-10}$,
251
 
  \item Maximum Constraint Error = $10^{-10}$.
252
 
\end{itemize}
253
 
 
254
 
 
255
 
\subsubsection{Monte Carlo simulation method}
256
 
 
257
 
We evaluate the probability with the Monte Carlo method, parameterized as follows : 
258
 
\begin{itemize}
259
 
  \item Maximum Outer Sampling = $4\, 10^4$,
260
 
  \item Block Size = $10^2$,
261
 
  \item Maximum Coefficient of Variation = $10^{-1}$.
262
 
\end{itemize}
263
 
 
264
 
We evaluate the confidence interval of level $0.95$ and we draw the convergence graph of the Monte Carlo estimator with its confidence interval of level 0.90.
265
 
 
266
 
 
267
 
 
268
 
\subsubsection{Directional Sampling method}
269
 
 
270
 
We evaluate the probability with the Directional Sampling method, whith its default parameters : 
271
 
\begin{itemize}
272
 
  \item 'Slow and Safe' for the root strategy,
273
 
  \item 'Random direction' for the sampling strategy
274
 
\end{itemize}
275
 
 
276
 
 
277
 
We evaluate the confidence interval of level $0.95$ and we draw the convergence graph of the Directional Sampling  estimator with its confidence interval of level 0.90.
278
 
 
279
 
 
280
 
\subsubsection{Latin Hyper Cube Sampling method}
281
 
 
282
 
We evaluate the probability with the Latin Hyper Cube Sampling method with the same parameters as the Monte Carlo method and we draw the convergence graph of the LHS estimator with its confidence interval of level 0.90.
283
 
 
284
 
 
285
 
 
286
 
 
287
 
 
288
 
\subsubsection{Importance Sampling method}
289
 
 
290
 
 
291
 
We evaluate the probability with the Importance Sampling method in the standard sapce, with the same parameters as the Monte carlo method. The importance distribution is the normal one, centered on the standard design point and which standard deviation is 4. The importance sampling is performed in the standard sapce.\\
292
 
 
293
 
We fix the BlockSize is fixed to 1 and the MaximumOuterIteration to $4\, 10^4$.\\
294
 
 
295
 
We draw the convergence graph of the Importance Sampling  estimator with its confidence interval of level 0.90.
296
 
 
297
 
 
298
 
 
299
 
 
300
 
\subsection{Response surface by polynomial chaos expansion}
301
 
 
302
 
 
303
 
We evaluate the meta model determined thanks to the polynomial chaos expansion technique.
304
 
 
305
 
 
306
 
 
307
 
 
308
 
We took the following 1D polynomial families, which parameters have been determined in order to be adapted to the marginal distributions of the input random vector : 
309
 
\begin{itemize}
310
 
        \item $E$ : Jacobi($\alpha = 1.3$, $\beta = -0.1$),
311
 
        \item $F$ : Laguerre($k = 1.78$),
312
 
        \item $L$ : Legendre,
313
 
        \item $I$ : Jacobi($\alpha = 0.5$, $\beta = 1.5$).
314
 
\end{itemize}
315
 
 
316
 
The truncature strategy of the multivariate orthonormal basis is the Cleaning Strategy where we considered within the $500$ first terms of the multivariate basis, among the 50 most significant ones, those which contribution wre significant (which means superior to $10^{-4}$).\\
317
 
 
318
 
The evaluation strategy of the approximation coefficients is the least square strategy based on a experiment plane determined with the Monte Carlo sampling technique of size 100.\\
319
 
 
320
 
Figures (\ref{PCE_E}) to (\ref{ModelsComparison}) draw the following graphs :
321
 
\begin{itemize}
322
 
  \item the drawings of some members of the 1D polynomial family,
323
 
  \item the cloud of points making the comparison between the model values and the meta model ones : if the adequation is perfect, points must be on the first diagonal.
324
 
\end{itemize}
325
 
 
326
 
 
327
 
 
328
 
 
329
 
 
330
 
 
331
 
 
332
 
 
333
 
 
334
 
 
335
 
 
336
 
 
337
 
 
338
 
 
339
 
 
340
 
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
341
 
\subsection{The Python script}
342
 
 
343
 
 
344
 
\lstset{language=python, keywordstyle=\color{black}\bfseries,tabsize=2,framexleftmargin=8mm,frame=shadowbox,rulesepcolor=\color{black},numbers=left,breaklines=true}
345
 
 
346
 
\lstinputlisting{scriptExample_beam.py}
347
 
 
348
 
 
349
 
 
350
 
 
351
 
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
352
 
\subsection{Output of the Python script}
353
 
 
354
 
\lstinputlisting{resultatExampleBeam}
355
 
 
356
 
 
357
 
 
358
 
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
359
 
\subsection{Figures}
360
 
 
361
 
 
362
 
The probability density function (PDF) of each marginal is given in Figures \ref{pdfE} to \ref{pdfI}.
363
 
 
364
 
 
365
 
\begin{figure}[Hhbtp]
366
 
\begin{minipage}{9.8cm}
367
 
    \begin{center}
368
 
    \includegraphics[width=7cm]{distributionE_pdf.pdf} 
369
 
    \caption{Probability density function of the parameter E}
370
 
    \label{pdfE}
371
 
    \end{center}
372
 
\end{minipage}
373
 
\hfill
374
 
\begin{minipage}{9.8cm}
375
 
    \begin{center}
376
 
    \includegraphics[width=7cm]{distributionF_pdf.pdf} 
377
 
    \caption{Probability density function of the parameter F}
378
 
    \label{pdfF}
379
 
    \end{center}
380
 
\end{minipage}
381
 
\end{figure}
382
 
 
383
 
 
384
 
\begin{figure}[Hhbtp]
385
 
\begin{minipage}{9.8cm}
386
 
    \begin{center}
387
 
    \includegraphics[width=7cm]{distributionL_pdf.pdf} 
388
 
    \caption{PDFof the parameter L}
389
 
    \label{pdfL}
390
 
    \end{center}
391
 
\end{minipage}
392
 
\hfill
393
 
\begin{minipage}{9.8cm}
394
 
    \begin{center}
395
 
    \includegraphics[width=7cm]{distributionI_pdf.pdf} 
396
 
    \caption{PDF of the parameter I}
397
 
    \label{pdfI}
398
 
    \end{center}
399
 
\end{minipage}
400
 
\end{figure}
401
 
 
402
 
The probability density function (PDF) and the cumulative density function (CDF) of the deviation fiited with the kernel smoothing metid are drawn in Figures \ref{KernelSmoothing} and  \ref{KernelSmoothing2}.
403
 
 
404
 
 
405
 
 
406
 
\begin{figure}[Hhbtp]
407
 
\begin{minipage}{9.8cm}
408
 
    \begin{center}
409
 
    \includegraphics[width=7cm]{smoothedPDF.pdf}
410
 
    \caption{PDF of the deviation with the kernel smoothing method.}
411
 
    \label{KernelSmoothing}
412
 
    \end{center}
413
 
\end{minipage}
414
 
\hfill
415
 
\begin{minipage}{9.8cm}
416
 
    \begin{center}
417
 
    \includegraphics[width=7cm]{smoothedCDF.pdf}
418
 
    \caption{CDF of the deviation with the kernel smoothing method.}
419
 
    \label{KernelSmoothing2}
420
 
    \end{center}
421
 
\end{minipage}
422
 
\end{figure}
423
 
 
424
 
 
425
 
The superposition of the kernel smoothed density function and the normal fitted from the same sample with the maximum likelihood method is drawn in Figure \ref{superp}.
426
 
 
427
 
 
428
 
\begin{figure}[Hhbtp]
429
 
\begin{center}
430
 
    \includegraphics[width=9cm]{smoothedPDF_and_GaussianPDF.pdf}
431
 
\end{center} 
432
 
    \caption{Superposition of the kernel smoothed density function and the normal fitted from the same sample.}
433
 
    \label{superp}
434
 
\end{figure}
435
 
 
436
 
The importance factors from the FORM method are given in Figure \ref{FormIF}.
437
 
 
438
 
\begin{figure}[Hhbtp]
439
 
\begin{center}
440
 
    \includegraphics[width=9cm]{ImportanceFactorsDrawingFORM.pdf}
441
 
\end{center} 
442
 
    \caption{FORM importance factors of the event : deviation > 30 cm.}
443
 
    \label{FormIF}
444
 
\end{figure}
445
 
 
446
 
The convergence graphs of the simulation methods are given in Figures \ref{MCConvergence} to \ref{LHSConvergence}.
447
 
 
448
 
 
449
 
\begin{figure}[Hhbtp]
450
 
\begin{minipage}{9.8cm}
451
 
    \begin{center}
452
 
    \includegraphics[width=7cm]{convergenceGrapheMonteCarlo.pdf}
453
 
    \caption{Monte Carlo convergence graph.}
454
 
    \label{MCConvergence}
455
 
    \end{center}
456
 
\end{minipage}
457
 
\hfill
458
 
\begin{minipage}{9.8cm}
459
 
    \begin{center}
460
 
    \includegraphics[width=7cm]{convergenceGrapheLHS.pdf}
461
 
    \caption{LHS convergence graph.}
462
 
    \label{LHSConvergence}
463
 
    \end{center}
464
 
\end{minipage}
465
 
\end{figure}
466
 
 
467
 
 
468
 
 
469
 
 
470
 
\begin{figure}[Hhbtp]
471
 
\begin{minipage}{9.8cm}
472
 
    \begin{center}
473
 
    \includegraphics[width=7cm]{convergenceGrapheDS.pdf}
474
 
    \caption{Directional Sampling convergence graph.}
475
 
    \label{DSConvergence}
476
 
    \end{center}
477
 
\end{minipage}
478
 
\hfill
479
 
\begin{minipage}{9.8cm}
480
 
    \begin{center}
481
 
    \includegraphics[width=7cm]{convergenceGrapheIS.pdf}
482
 
    \caption{LHS convergence graph.}
483
 
    \label{LHSConvergence}
484
 
    \end{center}
485
 
\end{minipage}
486
 
\end{figure}
487
 
 
488
 
 
489
 
Figures (\ref{PCE_E}) to (\ref{ModelsComparison}) contain the graphs : 
490
 
 
491
 
\begin{itemize}
492
 
  \item Graph 1 : the drawings of the fith first members of the 1D polynomial family,
493
 
  \item Graph 2 : the cloud of points making the comparison between the model values and the meta model ones : if the adequation is perfect, points must be on the first diagonal.
494
 
\end{itemize}
495
 
 
496
 
 
497
 
\begin{figure}[Hhbtp]
498
 
  \begin{minipage}{9cm}
499
 
    \begin{center}
500
 
      \includegraphics[width=7cm]{PCE_JacobiPolynomials_VariableE.pdf} 
501
 
      \caption{The 5-th first polynomials of the Jacobi family associated to the variable E.}
502
 
      \label{PCE_E}
503
 
    \end{center}
504
 
  \end{minipage}
505
 
  \hfill
506
 
  \begin{minipage}{9cm}
507
 
    \begin{center}
508
 
      \includegraphics[width=7cm]{PCE_LaguerrePolynomials_VariableF.pdf} 
509
 
      \caption{The 5-th first polynomials of the Laguerre family associated to the variable F.}
510
 
      \label{PCE_F}
511
 
    \end{center}
512
 
  \end{minipage}
513
 
\end{figure}
514
 
 
515
 
\begin{figure}[Hhbtp]
516
 
  \begin{minipage}{9cm}
517
 
    \begin{center}
518
 
      \includegraphics[width=7cm]{PCE_LegendrePolynomials_VariableL.pdf} 
519
 
      \caption{The 5-th first polynomials of the Legendre associated to the variable I.}
520
 
      \label{PCE_L}
521
 
    \end{center}
522
 
  \end{minipage}
523
 
  \hfill
524
 
  \begin{minipage}{9cm}
525
 
    \begin{center}
526
 
      \includegraphics[width=7cm]{PCE_JacobiPolynomials_VariableI.pdf} 
527
 
      \caption{he 5-th first polynomials of the Jacobi family associated to the variable I.}
528
 
      \label{PCE_I}
529
 
    \end{center}
530
 
  \end{minipage}
531
 
\end{figure}
532
 
 
533
 
 
534
 
 
535
 
 
536
 
\begin{figure}[Hhbtp]
537
 
\begin{center}
538
 
        \includegraphics[width=7cm]{PCE_comparisonModels.pdf} 
539
 
        \caption{Comparison of values from the model and the polynomial chaos meta model.}
540
 
        \label{ModelsComparison}
541
 
\end{center}
542
 
\end{figure}
543
 
 
544
 
 
545
 
 
546
 
 
547
 
\subsection{Results comments}
548
 
 
549
 
\subsubsection{Min/Max approach}
550
 
 
551
 
The Min/Max approach enables to evaluate the range of the deviation.\\
552
 
 
553
 
We note that the use of an experiment plane may be benefical with regard the random sampling technique as we can catch more easily (which means with less evaluations of the limit state function) the extrem values of the output variable of interest :h ere, we have managed to catch both extrem bounds of the deviation with the composite experiment plane, whereas the random sampling technique did not manage to give a good evaluation of them.\\
554
 
 
555
 
Note that the composite experiment plane has 73 points, where as the random sampling technique has been effected with $10^4$ points.
556
 
 
557
 
 
558
 
 
559
 
\subsubsection{Central tendancy approach}
560
 
 
561
 
The Taylor variance decomposition has given a good approximation of  the mean value of the deviation : the value is comparable to the one obtained with the random technique. Furthermore, note that the Taylor variance decomposition required only 1 evaluation of the limit state function, whereas the random sampling technique required $10^4$ evaluations.\\
562
 
 
563
 
The second order evaluation of the mean by the  Taylor variance decomposition method adds no information, which probably means that around the mean point of the input random vector, the limit state function is well approximated by its tangent plane.\\
564
 
 
565
 
The importance factors indicate that the mean of the deviation is mostly influenced by the uncertainty of the variable F.\\
566
 
 
567
 
The kernel smoothing technique enables to have a look on the distribution shape and  another approximation of the mean value of the deviation.\\
568
 
Note that the normal fitting on the sample is not adapted.
569
 
 
570
 
 
571
 
 
572
 
\subsubsection{Threshold exceedance approach}
573
 
 
574
 
The whole event probabilities evaluated from the simulation methods are equivalent and confirm the event probability evaluated with FORM.\\
575
 
 
576
 
Note that the FORM probability required only 176 evaluations of the limit state function whereas the Monte Carlo probability required 17300 evaluations, the Directional Sampling one 17297 evaluations and the LHS one 20300 evaluations.\\
577
 
The Importance Sampling is a simulation method but the importance density has been centered around the design point, where the threshold exceedance is concentrated. That's why the succession of the FORM technique and the Importance sampling one where the importance density is a normal distribution centered around the design point, performed in the standard space, seems to be the better compromise between the limit state evaluation calls number and the probability evaluation precision.\\
578
 
 
579
 
The simulation methods give a confidence interval, which is not possible with FORM.\\
580
 
 
581
 
FORM ranks the influence of the input uncertainties on the realisation of the threshold exceedance event : the variable F is largely the more influent. Thus, if the threshold exceedance probability is judged too high, it is recommanded to decrease the variability of the variable F first.
582
 
 
583
 
 
584
 
\subsubsection{Response surface : Polynomial expansion chaos}
585
 
 
586
 
The polynomial expansion chaos has defined a meta model thanks to 100 points, which gives very satisfactory results compared to those obtained with other methods.
587
 
 
588
 
\end{document}
589