Path:
Anhang

Full text: Anhang

WaBoLu

05 07
ISSN 1862-4340

Evaluation von Standards und Modellen zur probabilistischen Expositionsabschätzung
Anhang

WaBoLu-Hefte
UMWELTFORSCHUNGSPLAN DES BUNDESMINISTERIUMS FÜR UMWELT, NATURSCHUTZ UND REAKTORSICHERHEIT Forschungsbericht 202 61 218/02 UBA-FB 001073/ANH

WaBoLu

05 07
ISSN
1862-4340

Evaluation von Standards und Modellen zur probabilistischen Expositionsabschätzung
Anhang

von Odile Mekel1, Olaf Mosbach-Schulz2, Michael Schümann 3,7, Petra-Karin Okken4, Claudia Peters7, Jens Herrmann†2, Oliver Hehl5, Michael Bubenheim6, Rainer Fehr1, Jürgen Timm2 1: 2: 3: 4: 5: 6: Landesinstitut für den Öffentlichen Gesundheitsdienst NRW Universität Bremen, FB 3: Risikoforschung Umwelt Gesundheit Behörde für Soziales, Gesundheit und Verbraucherschutz, Hamburg Universität Bielefeld, Fakultät Gesundheitswissenschaften Niedersächsisches Landesgesundheitsamt Universitätsklinikum Hamburg-Eppendorf, Inst. f. med. Biometrie und Epidemiologie (IMBE) 7: Universitätsklinikum Hamburg-Eppendorf, IMBE / Arbeitsgruppe Epidemiologie

Im Auftrag des Umweltbundesamtes

UMWELTBUNDESAMT

Diese Publikation ist auch als Download unter http://www.umweltbundesamt.de verfügbar.

Die in der Studie geäußerten Ansichten und Meinungen müssen nicht mit denen des Herausgebers übereinstimmen.

Herausgeber:

Umweltbundesamt Postfach 1406 06844 Dessau-Roßlau Tel.: +49-340-2103-0 Telefax: +49-340-2103-2285 Internet: http://www.umweltbundesamt.de

Redaktion:

Fachgebiet II 1.3 Dirk Wintermeyer André Conrad Dessau-Roßlau, November 2007

Evaluation von Standards und Modellen zur probabilistischen Expositionsabschätzung

Anhang

Abschlussbericht

Inhaltsverzeichnis

I

Inhaltsverzeichnis Anhang
Verzeichnis der Abbildungen .......................................................................... V Verzeichnis der Tabellen ................................................................................ VI

A1
A1.1 A1.2 A1.3

Checkliste ..................................................................................... 1-8
Allgemeiner Teil: Datenquelle ...................................................................... 1 Spezieller Teil: Relevante Variable .............................................................. 6 Gesamtbeurteilung....................................................................................... 8

A2
A2.1 A2.2 A2.3 A2.4 A2.5 A2.6 A2.7

Der RefXP Reader....................................................................... 1-28
Claudia Peters, Michael Schümann

Das Programm ............................................................................................. 1 Festlegung der Zieltabelle............................................................................ 3 Datenformat des Eingabeskripts .................................................................. 5 Einlesen eines Skriptes und Eintragen der Inhalte ...................................... 8 Tools zur Ansicht und zum Editieren von Memofeldern............................... 9 Persönliche Einstellungen (Optionen)........................................................ 11 Anhang....................................................................................................... 13

A2.7.1 Headline- und Topicliste ....................................................................................... 13 A2.7.2 Datenquellen und Abkürzungen ........................................................................... 15 A2.7.3 Skriptvorlage Xprob für den Info Block................................................................. 16 A2.7.4 Beispielskript SAS ................................................................................................ 13 A2.7.5 Skriptbeispiel für die Übernahme von Tabellenwerten aus einer externen Quelle .................................................................................... 24 A2.7.6 Disclaimer ............................................................................................................. 27

II

Anhang

A3

Technische Dokumentation des Prototyps RefXP: Reference values for eXPosure factors.................................... 1-34
Michael Schümann

A3.1 A3.2 A3.3 A3.4 A3.5 A3.6 A3.7 A3.8 A3.9 A3.10 A3.11 A3.12 A3.13 A3.14 A3.15

Dokumentationsstruktur für Expositionsfaktoren.......................................... 1 Dokumentation der Tabellenstrukturen ........................................................ 2 Struktur der Zugriffe auf Tabellen ................................................................ 9 Funktion der Suchmaschine....................................................................... 10 Entwicklung einer formalen Tabellenstruktur ............................................. 12 Extensible Markup Language (XML).......................................................... 13 Gestaltung der graphischen Oberfläche und der interaktiven Struktur des Programms (Graphic User Interface GUI)........................................... 14 Ebene I: Menügesteuerte Funktionen ........................................................ 15 Ebene II: Ansichten der Datenstruktur und Auswahlfunktionen ................. 19 Ebene III: Ansichten der Daten und zugehörige Funktionen...................... 19 Ebene VI: Anzeigen in der Statusleiste...................................................... 29 Zusatzmodul: Suchen von Tabelleneinträgen............................................ 29 Quelltext des Programms........................................................................... 31 Literatur ...................................................................................................... 32 Information zum Programm RefXP ............................................................ 33

A4

Stratifizierung und Verteilungsanpassung mit SAS – Programm-Dokumentation – .................................................... 1-7
Jens Herrmann†, Olaf Mosbach-Schulz

A4.1 A4.2 A4.3

Aufbau des SAS-Skriptes............................................................................. 1 Eingabe der Steuerbefehle .......................................................................... 2 Disclaimer und Copyrights ........................................................................... 7

Inhaltsverzeichnis

III

A5
A5.1

Verteilungsbasierte Modellierung mit @RISK........................ 1-180
Olaf Mosbach-Schulz

Einleitung ..................................................................................................... 6

A5.1.1 Hinweise zum Gebrauch des Textes...................................................................... 8 A5.1.2 Hintergrund verteilungsbasierter Modellierungen................................................... 9 A5.1.2.1 Literatur zu verteilungsbasierten Modellierungen....................................... 12

A5.2

Der Aufbau von @RISK ............................................................................. 13

A5.2.1 Der Programmaufruf............................................................................................. 13 A5.2.2 Das erste Hauptfenster: EXCEL-Tabellenblatt..................................................... 13 A5.2.2.1 A5.2.2.2 Was Sie über EXCEL wissen müssen........................................................ 14 Literatur zu EXCEL ..................................................................................... 19

A5.2.3 Das zweite Hauptfenster: Modellfenster............................................................... 22 A5.2.4 Das dritte Hauptfenster: Ergebnisfenster ............................................................. 23 A5.2.5 Speichern und Beenden von @RISK ................................................................... 24 A5.2.6 Öffnen bestehender Simulationen........................................................................ 25

A5.3

Definition des Modells ................................................................................ 26
A5.3.1.1 A5.3.2.1 A5.3.2.2 A5.3.2.3 A5.3.2.4 A5.3.2.5 Literatur zur Expositionsmodellierung ........................................................ 28 Was Sie über Verteilungen wissen müssen ............................................... 30 Was Sie über die Lognormalverteilung wissen müssen............................. 39 Umrechnung der Parameter der GF-Verteilung für Unterverteilungen als Formulartabelle .................................................. 42 Mischen von Verteilungen .......................................................................... 50 Punktmasse auf Null (PMZ)........................................................................ 54

A5.3.1 Beispiel: Cadmium-Aufnahme durch übliche Nahrung ........................................ 26 A5.3.2 Verteilungen.......................................................................................................... 29

A5.3.3 Modellgleichung.................................................................................................... 55

A5.4

Monte-Carlo-Simulationen ......................................................................... 59

A5.4.1 Was Sie über Simulationen wissen müssen ....................................................... 59 A5.4.2 Einstellungen ........................................................................................................ 61 A5.4.3 Simulation ............................................................................................................. 64 A5.4.4 Literatur zu Simulationen...................................................................................... 73

A5.5

Aufbereitung der Ergebnisse...................................................................... 74

A5.5.1 Quick Report......................................................................................................... 74 A5.5.2 @RISK-Statistik-Funktionen................................................................................. 76 A5.5.3 EXCEL-Grafiken mit ungeordneten Daten ........................................................... 81 A5.5.4 EXCEL-Grafiken mit geordneten Daten ............................................................... 94 A5.5.5 Literatur zu EXCEL-Grafiken .............................................................................. 101

A5.6

Verteilungsanpassung.............................................................................. 102
A5.6.1.1 A5.6.1.2 Theoretische Modellannahmen ................................................................ 103 Auswahl empirischer Daten ...................................................................... 105

A5.6.1 Sammeln von Informationen............................................................................... 103

IV
A5.6.1.3 A5.6.2.1 A5.6.3.1 A5.6.3.2

Anhang
Nutzung von Expertenurteilen .................................................................. 106 Weitere Interpolationsverfahren................................................................ 117 Schätzung von Verteilungsparametern .................................................... 118 Auswahl der besten Verteilung („Best Fit“)............................................... 126

A5.6.2 Nicht-parametrische Verteilungen bei großen Datenmengen ............................ 107 A5.6.3 Anpassung parametrischer Verteilungen ........................................................... 118

A5.6.4 Verteilungen bei kleinen Stichprobenumfängen................................................. 130 A5.6.5 Mischungen von Verteilungen ............................................................................ 133 A5.6.6 Literatur zu Verteilungen .................................................................................... 138

A5.7

Sensitivitätsanalyse.................................................................................. 140

A5.7.1 Was Sie über Sensitivitätsanalysen wissen müssen ......................................... 140 A5.7.2 Globale Sensitivitätsmaße.................................................................................. 141 A5.7.3 Lokale Sensitivitätsmaße.................................................................................... 143 A5.7.3.1 A5.7.3.2 Gauß’sche Fehlerrechnung ...................................................................... 144 Gemittelter Varianzformel ......................................................................... 147

A5.7.4 Literatur zu Sensitivitätsanalysen....................................................................... 149

A5.8 A5.9

Literaturverzeichnis .................................................................................. 150 Verzeichnis wichtiger Schalter ................................................................. 152

A5.Anhang Ausdrucke der Beispielprogramme ..................................................... 155
A5.A1 atRisk_Bsp_Cadmium.xls................................................................................... 157 A5.A2 atRisk_Bsp_Parameter.xls ................................................................................. 166 A5.A3 atRisk_Bsp_Grafiken.xls .................................................................................... 168

A6

Liste der Veröffentlichungen des Xprob-Projektes ................... 1-2

Inhaltsverzeichnis

V

Verzeichnis der Abbildungen
Anhang 2
Abbildung A2.1 Abbildung A2.2 Abbildung A2.3 Abbildung A2.4 Abbildung A2.5 Abbildung A2.6 Abbildung A2.7 Abbildung A2.8 Abbildung A2.9

Der RefXP Reader
Ansicht des RefXP Readers nach Öffnen eines Skriptes im Programm .......................................................................... 2 Auswahl der Haupttabelle der Datenbank RefXP .......................................... 3 Information über den Status der Haupttabelle der Datenbank RefXP ........... 4 Inhaltsübersicht nach Auswahl einer Datenbank ........................................... 4 Ansicht eines Beispielskriptes zum Einlesen in die Datenbank ..................... 5 Öffnen des gewünschten Skripts.................................................................... 8 Start des Einlesens in die Datenbank ........................................................... 8 Betrachtungsmöglichkeit des Inhalts eines eingelesenen Skripts................ 10 Editieren von Tabellenwerten und Bestätigen der Änderung....................... 10

Abbildung A2.10 Ansicht des Fensters Optionen .................................................................... 11 Abbildung A2.11 Ausschnitt des Fensters „Basic Data Set” und Funktionsknöpfe ................. 25

Anhang 3

Technische Dokumentation des Prototyps RefXP: Reference values for eXPosure factors
Vereinfachte Darstellung der Struktur der Datenbank- und Zugriffsstruktur............................................................... 2 Abhängigkeit der Tabellen und Veränderungsereignisse ............................ 10 Benutzeroberfläche des Programms RefXP ................................................ 15 Menüleiste des Programms RefXP .............................................................. 15 Unterprogramm zur Informationssuche und Positionierung......................... 17 Infofenster mit Angabe der Versionsnummer und des Programmstatus ............................................................................. 18 Datenansicht (Datenpositionierungsebene) des Programms RefXP ........... 19 Cursor-gesteuerte Datenanzeige des Programms RefXP ........................... 20 Teilfenster des Fensters Prt./Options mit veränderlichen Optionen............. 20

Abbildung A3.1 Abbildung A3.2 Abbildung A3.3 Abbildung A3.4 Abbildung A3.5 Abbildung A3.6 Abbildung A3.7 Abbildung A3.8 Abbildung A3.9

Abbildung A3.10 Fenster zur Anzeige der aktuellen Restriktionen (verbale Umsetzung) .................................................................................... 21 Abbildung A3.11 Fenster zur Anzeige der aktuell referenzierten Datentabelle, Auswahl von angezeigten Feldern und Variablen-Bezeichnungen ............................ 22 Abbildung A3.12 Fenster zur formatierten Anzeige der aktuell referenzierten Datentabelle ........................................................ 23 Abbildung A3.13 Fenster zur benutzerdefinierten Generierung von formatierten Datentabellen .................................................................... 24 Abbildung A3.14 Fenster zur Anzeige der GF- und Verteilungsanpassung ............................ 26 Abbildung A3.15 Anzeige der aktuell bearbeiteten Gruppe (Strata)........................................ 26

VI

Anhang

Abbildung A3.16 Fenster zur Anzeige der GF- und Verteilungsanpassung über alle Gruppen .................................................... 27 Abbildung A3.17 Fenster zur Anzeige des Programmablaufes / Optionen ............................. 28 Abbildung A3.18 Fenster zur Anzeige eines zusammenfassenden Berichtes ........................ 28 Abbildung A3.19 Fensterleiste zur Anzeige der aktuellen Position ......................................... 29 Abbildung A3.20 Fenster zur interaktiven Suche von Tabelleneinträgen................................ 30 Abbildung A3.21 Teilfenster zur Definition der Suchbegriffe ................................................... 30 Abbildung A3.22 Teilfenster zur Navigation in den gefundenen Tabelleneinträgen................ 31

Verzeichnis der Tabellen
Anhang 3 Technische Dokumentation des Prototyps RefXP: Reference values for eXPosure factors
Darstellung der Struktur für Kapitelüberschriften in Tabelle „Topics“ ................. 3 Darstellung der aktuellen Inhalte der Tabelle „Topics“ / Kapitelüberschriften........................................................................................... 3 Darstellung der Struktur für Abschnittsüberschriften in Tabelle „Para1“............. 4 Darstellung der aktuellen Inhalte der Tabelle für Abschnittsüberschriften (Auszug) .................................................................. 4 Darstellung der Struktur der Tabelle „Daten1a“ für die Quellen und Basisinformation .................................................................. 5 Definition des Inhalte des Feldes FileType (Änderungen) .................................. 6 Inhalte des Informationsfeldes INFO................................................................... 6 Vollständige Struktur für die spezifische Information zu einer Variablen............ 8 Partielle Struktur für die spezifische Information zu einer Variablen (Deskription).......................................................................... 8

Tabelle A3.1 Tabelle A3.2 Tabelle A3.3 Tabelle A3.4 Tabelle A3.5 Tabelle A3.6 Tabelle A3.7 Tabelle A3.8 Tabelle A3.9

Tabelle A3.10 Struktur für die Information zu zitierten Referenzwerten..................................... 9 Tabelle A3.11 Struktur der Variablenlabel (VARLABEL)............................................................ 9 Tabelle A3.12 Struktur der generierten Suchlisten-Datei ......................................................... 11 Tabelle A3.13 Auswahl des Tabellentyps (Generieren von Tabellen) ..................................... 22 Tabelle A3.14 Funktion der Schaltknöpfe: Generierung von formatierten Datentabellen........ 25

A1 Checkliste
Die nachfolgende Checkliste diente dem Xprob-Projekt zur systematischen Auswertung und Dokumentation der Literatur zu Datenquellen und Expositionsfaktoren. Aufgeführt ist die letzte Überarbeitung vom Oktober 2004. Zur Beurteilung der Qualität eines Datensatzes wurden später im Projekt zusammenfassende Kriterien entwickelt (Teil 1, Kapitel 4, Tabelle 4.11), die pro Parameter auch in der Datenbank RefXP dokumentiert sind.

A1.1 Allgemeiner Teil: Datenquelle
Identifikation des Datensatzes
Name: Akronym: Kurzbeschreibung:

Relevante Parameter:

Strata:

Alter, Geschlecht

Datum der Prüfung: Prüfer:

Ref. Suchstrategie etc. [Name Jahr]

Ausgewertete Dokumente und Literatur zur Erhebung

1

2

Anhang

lfd.Nr. 1.1***

1. Verantwortlichkeit für die Datenerhebung
Ist die wissenschaftlich verantwortliche Institution der Datenerhebung bekannt? Falls ja: Ist der Dateneigner der Daten bekannt? Falls ja: Ist der Auftraggeber (Geldgeber?) der Datenerhebung bekannt? Falls ja:

j

n

uk

na

1.2* 1.3***

1.4***

Liegt ein Einfluss von finanziellen oder anderen Formen der Unterstützung durch nicht-staatliche Institutionen auf die Erhebung vor? Falls ja: Sind die Gründe oder Ziele (Hypothesen, spezifische Fragestellungen etc.) der Datenerhebung bekannt? Falls ja: Liegt eine Diskussion zur Festlegung der Inhalte der Erhebung vor? Falls ja: Handelt es sich um eine primäre Erhebung? Sind vorgesehene Nutzergruppen der Daten bekannt? Falls ja:
Nur eine Antwortkategorie ankreuzen: ⌧, falls ja bitte weitere Informationen angeben. (j = ja , n = nein , uk = unklar (auch bei unvollständigen / unzureichenden Angaben) , na = nicht anwendbar)

1.5***

1.6*** 1.7*** 1.8***

Anhang 1: Checkliste

3

lfd.Nr. 2.1** 2.2*** 2.3*

2. Typologie der Datenerhebung
Ist das Studiendesign der Erhebung bekannt? Falls ja: Liegt eine Diskussion von Pretests vor? Falls ja: Liegt eine genaue Festlegung der Studienpopulation der Erhebung vor? Falls ja: Liegt eine genaue Festlegung der Zielpopulation der Erhebung vor? Falls ja: Liegen für die Stichprobe Gewichte vor, um sie der Population anzugleichen (Geschlecht, Alter etc.)? Falls ja: Ist die Datenerhebung (evt. mit Gewichtung) repräsentativ für die Zielpopulation? Falls ja: Liegt eine Diskussion zur möglichen Übertragung der Ergebnisse auf andere Populationen vor? Falls ja: Ist die regionale Verteilung der Erhebung bekannt? Falls ja: Liegt eine Diskussion zur möglichen Übertragung der Ergebnisse auf andere Regionen vor? Falls ja: Ist die zeitliche Verteilung der Erhebung bekannt? Falls ja:

j

n

uk

na

2.4* 2.5*

2.6*

2.7***

2.8* 2.9***

2.10*

2.11*** Liegt eine Abschätzungen über die Gültigkeitsdauer der Ergebnisse vor? Falls ja: 2.12*** Ist eine regelmäßige Aktualisierung der Daten vorgesehen? 2.13* Ist der Stichprobenumfang der Erhebung bekannt? Falls ja: 2.14*** Liegt eine Diskussion über mögliche Verzerrungen durch Teilnahmeverweigerung vor? Falls ja: 2.15* Sind Informationen gegeben, ob die Erhebung in Verbindung mit anderen durchgeführt wurde (Unterstichprobe etc.)? Falls ja:
Nur eine Antwortkategorie ankreuzen: ⌧, falls ja bitte weitere Informationen angeben. (j = ja , n = nein , uk = unklar (auch bei unvollständigen / unzureichenden Angaben) , na = nicht anwendbar)

4

Anhang

lfd.Nr. 3.1** 3.2

3. Verfügbarkeit der Daten
Sind die Originaldaten zugänglich? Falls ja: In welcher Form (Listen, elektronisch etc.) liegen die Daten vor?

j

n

uk

na

3.3

Fallen bei Verwendung der Daten Kosten an? Falls ja:
Nur eine Antwortkategorie ankreuzen: ⌧, falls ja bitte weitere Informationen angeben. (j = ja , n = nein , uk = unklar (auch bei unvollständigen / unzureichenden Angaben) , na = nicht anwendbar)

lfd.Nr. 4.1*** 4.2* 4.3***

4. Auswertung der Daten
Liegen Auswertungen der Pretests vor? Falls ja: Sind Auswertungen der Erhebung zugänglich? Falls ja: Liegen Beschreibungen der Variation (Quantile, Verteilungen etc.) für die erhobenen Größen vor? Falls ja: Liegt eine genaue Beschreibung und Diskussion der verwandten Auswertungsmethoden vor? Falls ja:

J

n

uk

na

4.4**

Nur eine Antwortkategorie ankreuzen: ⌧, falls ja bitte weitere Informationen angeben. (j = ja , n = nein , uk = unklar (auch bei unvollständigen / unzureichenden Angaben) , na = nicht anwendbar)

Anhang 1: Checkliste

5

lfd.Nr. 5.1***

5. Qualitätssicherung und Evaluation
Liegen unabhängige Prüfungen zur Beantragung / Genehmigung der Erhebung vor? Falls ja: Liegt eine Beschreibung der Qualitätssicherung während der Erhebung vor? Falls ja: Liegt eine Beschreibung der Qualitätssicherung während der Auswertung vor? Falls ja: Liegt eine Diskussion zur internen Konsistenz / Plausibilität der Ergebnisse vor? Falls ja: Sind parallele Untersuchungen bzw. Wiederholungen der Erhebung bekannt? Falls ja: Liegt ein Vergleich der Ergebnisse mit passenden weiteren Studien vor? Falls ja: Liegen unabhängige Evaluationen / Peer-Reviews zur Erhebung vor? Falls ja: Liegen unabhängige Evaluationen / Peer-Reviews zur Auswertung vor? Falls ja:

j

n

uk

na

5.2**

5.3**

5.4*

5.5***

5.6***

5.7***

5.8***

Nur eine Antwortkategorie ankreuzen: ⌧, falls ja bitte weitere Informationen angeben. (j = ja , n = nein , uk = unklar (auch bei unvollständigen / unzureichenden Angaben) , na = nicht anwendbar)

6

Anhang

A1.2 Spezieller Teil: Relevante Variablen
Identifikation des Datensatzes und der relevanten Variablen
Name: Akronym: Relevanter Parameter (mit Einheiten): Kurzbezeichnung: Datum der Prüfung:

lfd.Nr. 6.1* 6.2* 6.3**

6. Angaben zum Erhebungsverfahren
Ist der Stichprobenumfang für diese Variable bekannt? Falls ja: Sind die Daten aggregiert? Falls ja: Sind die Algorithmen der Aggregation bekannt? Falls ja:

j

n

uk

na

Fragen, falls Daten per Fragebogen erhoben wurden: 6.4** Ist das genaue Erhebungsinstrument für diese Variable (Fragebogen, Interviewerleitfäden etc.) bekannt? Falls ja: 6.5*** Handelt es sich um ein Erhebungsinstrument, das häufiger verwandt (z.B. standardisiert) wird? Falls ja: 6.6** 6.7** Liegt eine Prüfung und Diskussion der Reliabilität der Angaben vor? Falls ja: Liegt eine Prüfung und Diskussion der Validität der Angaben vor? Falls ja: Fragen, falls Daten gemessen wurden: 6.8** Sind bei Messungen die Messverfahren (Messgenauigkeit etc.) bekannt? Falls ja: 6.9*** Handelt es sich um ein Messverfahren, das genormt / überprüft ist? Falls ja: 6.10*** Liegt eine Prüfung und Diskussion der inneren Validität der Messungen vor? Falls ja:
Nur eine Antwortkategorie ankreuzen: ⌧, falls ja bitte weitere Informationen angeben. (j = ja , n = nein , uk = unklar (auch bei unvollständigen / unzureichenden Angaben) , na = nicht anwendbar)

Anhang 1: Checkliste

7

lfd.Nr.

6. Erfassung und Bereinigung der Daten
Wurden für diese Variable Surrogatdaten erhoben? Falls ja: Liegt eine Diskussion der Aussagekraft der Surrogatdaten vor? Falls ja:

j

n

uk

na

Fragen, falls Surrogatdaten erhoben wurden: 6.12** 6.13**

Fragen, falls Faktoren oder Scores erhoben wurden: 6.14** Wurden hier mehrere zusammengefasst? Falls ja: 6.15** 6.16** Sind die genauen Algorithmen der Faktoren und Scores bekannt? Falls ja: Liegt eine Diskussion der Aussagekraft bzw. Trennschärfe der Faktoren und Scores vor? Falls ja: Allgemeine Fragen: 6.17** Sind alle zusätzlichen Annahmen der Datenerhebung für diese Variable (Codierungs-, Erhebungshandbücher, Portionsgrößen etc.) bekannt? Falls ja: 6.18** Liegt eine Diskussion des Einflusses der Annahmen auf die Ergebnisse vor? Falls ja: 6.19* Liegt eine zusammenfassende Diskussion über mögliche Verzerrungen /systematische Fehler und die Unsicherheit der Erhebung dieser Variablen vor? Falls ja:
Nur eine Antwortkategorie ankreuzen: ⌧, falls ja bitte weitere Informationen angeben. (j = ja , n = nein , uk = unklar (auch bei unvollständigen / unzureichenden Angaben) , na = nicht anwendbar)

Fragen

zu

Faktoren

oder

Scores

lfd.Nr. 7.1***

7. Erfassung und Bereinigung der Daten
Liegt eine ausführliche Beschreibung (tatsächliche Ausführung) und Diskussion der Datenbereinigung und Plausibilitätsprüfung vor? Falls ja:

j

n

uk

na

Nur eine Antwortkategorie ankreuzen: ⌧, falls ja bitte weitere Informationen angeben. (j = ja , n = nein , uk = unklar (auch bei unvollständigen / unzureichenden Angaben) , na = nicht anwendbar)

8

Anhang

A1.3 Gesamtbeurteilung
lfd.Nr.

8. Gesamtbeurteilung der Variablen für die Standardsetzung
Ist die vorliegende Variable zur Begründung eines Standards geeignet? Begründung:

j

n

uk

na

8.1

8.2

Empfehlungen für künftige Erhebungen aus PQE-Sicht:

Nur eine Antwortkategorie ankreuzen: ⌧ und begründen. (j = ja , n = nein , uk = unklar (auch bei unvollständigen / unzureichenden Angaben) , na = nicht anwendbar)

Typologie der Informationslage: *** ** * = Notwendig für eine vollständige Informationslage = Notwendig für eine Verteilungsanpassung = Notwendig bei Literaturdaten

(vergleiche Teil 1, Abschnitt 4.10)

A2 Der RefXP Reader
Claudia Peters, Michael Schümann

A2.1 Das Programm
Die Aufgabe des Programms RefXP Reader ist es, dem Nutzer ein Instrument zur Verfügung zu stellen, um (a) neue Daten in die Datenbank RefXP aufzunehmen und (b) den bestehenden Datenbestand zu modifizieren (Löschung, Update, Sicherung). Die Aufnahme von neuen Daten erfolgt skriptbasiert, die Bearbeitung des Datenbestandes interaktiv. Die Haupttabelle der Datenbank RefXP enthält pro Zeile jeweils die Daten einer Variable mit der gewählten Stratifizierung, die in der Regel nach Altersgruppen erfolgt. Für jeden Eintrag ist angegeben, auf welche Geschlechtsgruppe sich der Referenzwertevorschlag bezieht (M = männlich, F = weiblich, A = zusammengefasste Geschlechtsgruppen). Um den Datensatz in die Gliederungsstruktur der Datenbank RefXP einzufügen, muss für die Variable die jeweilige Headline (Kapitel) und der Topic (Unterabschnitt) zugeordnet werden. Die Gliederung der Datenbereiche ist vorgegeben, eine Liste der Abkürzungen für die vergebenen Headlines und Topics ist im Abschnitt A2.7.1. beigefügt. Jeder neue Eintrag von Information folgt einem standardisierten Muster, dabei sind Eingabeskripte die Träger der Verbindung von Information in Textform zur systematisch gegliederten Form der Datenbank RefXP im XML-Format. Im Anhang A4 ist beschrieben, wie in der Umgebung des Statistikpaketes SAS® ausgewählte Variable aus Datenbeständen analysiert werden und wie eine geeignete Ausgabe der Ergebnisse generiert wird. Die SAS-Ausgabedatei des Auswertungsskriptes liegt dann als Textdatei im ASCII-Format vor und kann nach der Bearbeitung (Ergänzung der variablenspezifischen Information im Skript) direkt als Skript vom Programm RefXP Reader verarbeitet werden. Liegen Tabellen und Ergebnisse aus anderen Quellen vor, so ist es ebenfalls möglich, diese in die Datenbank aufzunehmen; hierzu müssen die Inhalte in einer festgelegten Struktur als Skript gegliedert zusammengestellt werden, um sie dann in die Datenbank aufzunehmen. Ein vereinfachtes Beispiel ist in Abschnitt A2.7.5 dargestellt. Zu den Leistungen des Programms gehört es, die entsprechenden Informationen im Skript zu segmentieren, eine entsprechende Datei zu formatieren und die Information gemäß der durch das Skript vorgegebenen Zuordnung in die Struktur der Haupt- und Untertabellen der Datenbank RefXP einzutragen. Hierbei werden die gewählten Stratifizierungen, z. B. nach Altersgruppen, berücksichtigt und die Tabellen der Datenbank entsprechend aufgebaut und mit den zugehörigen Inhalten gefüllt.

1

2

Anhang

Abbildung A2.1: Ansicht des RefXP Readers nach Öffnen eines Skriptes im Programm

Das Programm enthält folgende Fenster: • Protocol: Protokoll der Operationen (ggf. zur Sicherung und kontinuierlichen Dokumentation der erfolgten Neuaufnahme/ Formatierung/ Datenbankänderung) Script: Anzeige des Eingabeskripts im Editiermodus Basic Data Set: Anzeige der Hauttabelle der Datenbank (Bindungsdatei) Header Memo Data: Ansichten der eingebundenen Tabellenteile 1. Info-Fenster 2. Datentabelle für die Haupttabelle (als Textblock) 3. Labels für die Variablen der Tabellen • • Data Table: Ansicht der Memo-Felder (Untertabellen) Optionsfenster zur Einstellung der Operationen

• • •

Anhang 2: Der RefXP Reader

3

A2.2 Festlegung der Zieltabelle
Um die Einzeltabellen und variablenspezifischen Informationen zusammen in einer Zieltabelle zu gliedern und zu speichern, muss die Kerntabelle der Datenbank (z. zt. Daten1a.xml) ausgewählt werden. In diese Tabelle werden die Daten entsprechend dem Skriptinhalt eingebunden. Nach Betätigen der Option Database | Select Reference Table (Abb. A2.2) erscheint ein Fenster, in dem die entsprechende Auswahl getroffen werden muss (z. zt. ist dies die Tabelle daten1a.xml). Abbildung A2.2: Auswahl der Haupttabelle der Datenbank RefXP

Nach Auswahl der Haupttabelle wird der Status der Tabelle angezeigt (Abb. A2.3), hierzu gehören Namen und Pfad, Anzahl der aktuell eingebunden Datensätze, die Liste der Tabellenfelder, das Erstellungsdatum und das Datum des letzten Updates (bzw. schreibberechtigten Zugriffs). Daneben wird der Name, genauer das Namenskürzel des aktuellen Nutzers angezeigt, dies kann und sollte im Reiterfeld Optionen individuell eingestellt werden, um Nachfragen bei Veränderungen/Updates stellen zu können. Unter diesem Menüpunkt kann die Haupttabelle auch geschlossen werden. Ein Update (Rückspeicherung des aktuell bearbeiteten Standes) unter dem gleichen Dateinamen wird über Update Reference Table angestoßen; das Anlegen einer Kopie (mit anderem Dateinamen!) unter Save Reference Table as .. . Eine leere Tabelle kann über Generate an empty new Reference Table generiert werden.

4

Anhang

Abbildung A2.3: Information über den Status der Haupttabelle der Datenbank RefXP

Abbildung A2.4: Inhaltsübersicht nach Auswahl einer Datenbank

Anhang 2: Der RefXP Reader

5

Nach Auswahl des Reiters Basic Data Set (Abb. A2.4) kann jetzt der Inhalt der gewählten Datenbank im Programmfenster eingesehen werden. Dabei ist die Zuordnung zu einem Topic (Kürzel unter PS), der Altersbereich, das Geschlecht, die Variable, die Datenquelle und der relative Pfad auf das Verzeichnis, in dem die entsprechenden Daten im RefXP-Verzeichnis abgelegt werden, zu erkennen.

A2.3 Datenformat des Eingabeskripts
Die SAS-Auswertungsskripte geben die aufzunehmende Information nach einem im Xprob-Projekt festgelegten Format (SAS-Auswertungsskript der Universität Bremen oder manuell erstelltes Textdokument für Literaturquellen) ab. Die Struktur und der Inhalt des Eingabeskripts definiert den Inhalt der einzubindenden Tabellen vollständig (Abb. A2.5). Es ist jeweils nur eine Variable zurzeit zu bearbeiten, das Eingabeskript enthält dabei die Informationen zu allen Altersgruppen (Strata). Abbildung A2.5: Ansicht eines Beispielskriptes zum Einlesen in die Datenbank

6 Der Inhalt des Scripts ist wie folgt gegliedert: • Kommentarbereich zu Dokumentationszwecken o Angaben zu Topic und Parametern (Datengliederung) o Datenquelle o Verweis auf das Dateiverzeichnis der Datenbank o Relativer Pfad vom Hauptverzeichnis der Datenbank (Feld DataFile) o Alters- und Geschlechtsgruppen o Anzahl der Strata (i.d.R. Altersgruppen) • • •

Anhang

Informationsblock zur Variablen, Datenquelle etc. als Memo-Feld Info (im Rich-Text-Format) Beschreibungen für die in Tabellen verwendeten Variablen (Spalten) als Memo-Feld VarLabels Datentabelle 1: Deskriptive Kennwerte nach Strata (Alters- und Geschlechtsgruppen, Anzahl der zugrunde liegenden Datensätze, statistische Kennwerte, ausgewählte Quantile, ..) als Memo-Feld DistrPara, Nummer der Gruppe (als Zeile z.B. GROUP=1; ) Ergänzungen der Datenzeilen (für jeweiliges Strata) General-F-Verteilungsanpassung nach ML und beste Anpassung an ein- bzw. zweiparametrische Verteilungen Quantilwerte der empirischen, der General-F- und der Auswahlverteilung Momente, Median und IQR der empirischen, der General-Fund der Auswahlverteilung Ggf. könnten in der aktuellen Struktur auch bereits die Felder für Korrelation (Memo-Feld Correlatio) und für Kovarianzmatrizen (Memo-Feld CoVar) genutzt werden.

Und dann nach Strata (Gruppen) gegliedert: • • • • • •

Anhang 2: Der RefXP Reader Innerhalb des Skripts gelten folgende Regeln für die Formatierung: • • •
• • • • • • • •

7

Kommentarzeilen werden mit „//“ eingeleitet. Leerzeilen werden bei der Bearbeitung ignoriert. Die Information zu folgenden Zeilen ist obligatorisch:
TOPIC= ...; PARAMETER=...; DATA SOURCE=...; DATA DIR=...; DATA FILE=...; AGE GROUPS...; SEX GROUPS=...; NGROUPS=...;

• •

Jede Zeile in diesem Block wird mit einem Semikolon abgeschlossen Zahlen werden in der Dezimalform immer mit einem Punkt abgegrenzt, die deutsche Schreibweise wird vom Programm nicht unterstützt. In Tabellen werden Zahlen und Zeichen durch Komma getrennt. „Missing“-Werte werden als leere Eingabe eingegeben, so entspricht z.B. die Eingabe 12,,A einem Tabellenwerte (1.Feld) von 12, einer leeren (Missing) Eingabe (2.Feld) und einem Wert A (3.Feld). Im Info-Feld grenzt die Zeichenfolge „Blank - | - Blank“ (z.B. in „Age | 17 – 79“ oder in „Sex | Male“ das Attribut vom Wert des Attributs ab. Durch den senkrechten Strich kann bei der Umsetzung des Skripts in den Datenbankinhalt die entsprechende Anzahl von Blanks eingesetzt werden, um eine strukturierte Ausgabe zu erreichen. In allen Memo- und Rich-Text-Format-Feldern wird als Standardschrift Courier genutzt. Proportionale Schriften und Tabulatorvorschübe sollten wegen der resultierenden Probleme (ungleiche, schrifttyp-abhängige Einrückungen vermieden werden. Information zu den Eingabefeldern INFO, VARLABELS, DATA, DATA2, QUANTILES, FREQ, MOMENTS, GENERALF, CORRELATION, COVARIANCE müssen mit dem Schlagwort, Gleichheitszeichen und geschweifter Klammer z. B. DATA={ in einer Zeile eingeleitet werden, werden von den Informationszeilen gefolgt und mit einer Neuzeile mit einer geschweiften Klammer } abgeschlossen. Es wird empfohlen, zur Übersichtlichkeit und ggf. zur visuellen Prüfung eine leere Zeile dahinter folgen zu lassen.

•

•

•

•

8

Anhang

Um die Fehlermöglichkeiten zu reduzieren, wird empfohlen SAS-generierte Skripts oder eine geprüfte Skriptvorlage zu verwenden. Es wird weiterhin empfohlen, Formatierungen von Zahlen (Stelligkeit, Rundung) bereits im Skript oder noch besser in der Ausgabe des Statistikprogramms vorzunehmen, um die sonst erforderliche Redaktionsarbeit innerhalb der Datenbankumgebung zu vermindern. Dies konnte, wie an einigen Tabellen der Datenbank erkennbar, im Xprob-Projekt aus verschiedenen unabänderlichen Gründen nicht rechtzeitig und nicht konsequent genug umgesetzt worden.

A2.4 Einlesen eines Skriptes und Eintragen der Inhalte
Um ein bestehendes Skript (s. Beispiel Abb. A2.5) in die Datenbank einbinden zu können, muss dieses Skript mit der Option Script | Read Script File (Abb. A2.6) in dem Programm RefXP Reader geöffnet werden und kann ggf. im Anzeigefenster korrigiert und erweitert werden. Dabei empfiehlt es sich, die vorgenommenen Änderungen und Erweiterungen in eine Datei mit Save Script file (zurück-)zuspeichern, da das ‚Urskript’ durch den RefXP Reader nicht automatisch aktualisiert wird und das eingelesene Skript während der Segmentierung und Formatierung verändert wird. Das jeweils zuletzt gelesene Skript kann mit dem Befehl Reload the last Script „wiedergeholt“ werden. Über die Auswahl Font kann der Schrifttyp und die Schriftgröße verändert werden; die Standardschrift in der Datenanzeige ist „Courier New“. Mit New/Clear wird das Anzeigefeld gelöscht. Die Auswahl Close schließt das Programm direkt, Änderungen müssen zuvor durch Database | Update Reference Table gesichert werden. Abbildung A2.6: Öffnen des gewünschten Skripts

Abbildung A2.7: Start des Einlesens in die Datenbank

Anhang 2: Der RefXP Reader

9

Wenn das Skript mit allen wichtigen Informationen und Daten versehen und die richtige Datenbank ausgewählt worden ist, kann durch Ausführen der Option Execute | Run script (Abb. A2.7) der Einlesevorgang gestartet werden. Dieser Befehl löst eine Kette von Aktionen aus, die in der Summe einige Zeit in Anspruch nehmen können. • • • • • • • • • Segmentierung der Informationsblöcke Generierung eines angemessenen Datentabellen-Formates Analyse der Anzahl von Strata Formatierung der Daten Generieren der Zieltabelle (inkl. eines Verzeichnisses, falls erforderlich) Prüfen, ob bereits eine Datei mit der Bezeichnung vorhanden ist Füllen der Zieltabelle RE-/Neuformatierung (Option) Speicherung der Referenz (relativer Pfad und Dateibezeichnung)

Das Ergebnis wird in das Protokollfenster geschrieben. Bei Problemen ist ggf. die Zusendung des Protokolls und der Eingabedatei an den Produktentwickler sinnvoll. Nach erfolgreicher Umsetzung ist der entsprechende neue Datensatz des eingelesenen Skripts in der Basic Data Set-Tabelle als letzter Eintrag in der Tabelle zu finden1. Hier kann noch einmal die richtige Zuordnung (Topic), das Alter, Geschlecht, Variable, Datenquelle und die Ablage im Verzeichnis kontrolliert werden und es besteht auch weiterhin die Möglichkeit, dieses durch Markieren des gewünschten Eintrages zu ändern oder ggf. den Dateneintrag zu entfernen. Bei korrekter Zuordnung ist es ebenfalls möglich, in der Datenbank RefXP den neuen Eintrag sofort zu betrachten. In jedem Fall sollte der neue Stand durch den Befehl Database | Update gesichert werden.

A2.5 Tools zur Ansicht und zum Editieren von Memofeldern
Im Feld Header Memo Data (Abb. A2.8) können die eingelesenen Informationen für ein ausgewähltes Skript betrachtet und gegebenenfalls korrigiert werden. Dabei wird die Quelle angezeigt, die in der Tabelle Basic Data Set unterlegt ist. Änderungen müssen auch hier in der Leiste am unteren Rand mit dem Anklicken des „Häkchens“ bestätigt werden. Die Eingangs- oder Informationsseite wird durch die Auswahl von INFO aufgerufen, VARLABELS weist die Erklärung der Variablenbezeichnungen aus der Datentabelle auf und

1

Intern wird eine Identifikationsnummer vergeben, die jeweils bei der bislang höchsten vergebenen ID-Nummer ansetzt und die Nummern inkrementiert. Werden Datensätze gelöscht, so wird die Datensatznummer nicht automatisch neu vergeben. Dies erleichtert (im Zweifel) die Suche nach Datenfehlern.

10

Anhang

DISTRPARA zeigt die Datentabelle im Textformat mit durch Kommata getrennten Werten an. Abbildung A2.8: Betrachtungsmöglichkeit des Inhalts eines eingelesenen Skripts

Abbildung A2.9:

Editieren von Tabellenwerten und Bestätigen der Änderung

Im Feld Data Table sind die Informationen der Untertabelle zu den Parametern enthalten (Abbildung A2.9), im Feld Data Memo können die Inhalte der Informationsblöcke (Memo-Felder) eingesehen (und ggf. geändert) werden. Die Auswahl des jeweils gewünschten Inhaltes erfolgt dabei über den Namen des Memo-Feldes.

Anhang 2: Der RefXP Reader

11

A2.6 Persönliche Einstellungen (Optionen)
Um die Arbeit mit dem RefXP Reader zu erleichtern und um die wiederholte Eingabe von gewählten Einstellungen zu vermeiden, hat das Programm eine Seite mit einstellbaren Optionen. In Abbildung A2.10 wird die Seite mit den Einstellungen gezeigt.

Abbildung A2.10: Ansicht des Fensters Optionen

Im Fenster Optionen (Options) (Abb. A2.10) werden zur Verfügung gestellt: • • Informationen zu Data Sources: Verzeichnis und Dateiname der Mutterdatei (Bindung der Information) Authorisation marker: Dies ist ein Eintrag, der von jedem Nutzer für sich geändert werden sollte. Dieses Feld wird in die Muttertabelle übertragen (zusammen mit dem Datum), um die Dateneingabe zu autorisieren, d.h. der Code (Kürzel für die tabellenbearbeitende Person) für die Identifizierung der Person bzw. die Institution sollte hinreichend klar sein. Data Table to File: Um den etwas unleserlichen und nicht DIN-konformen Darstellungen in den Tabellen, wie sie vom SAS-Skript abgegeben werden, ein wenig Struktur zu geben, kann hier ausgewählt werden, wie breit eine Tabellenspalte sein soll (width), wie viele Zeichen die Zahlen enthalten kann (inkl. Vorzeichen, Punkt, etc.: digits) und wie viele Nach-

•

12

Anhang kommastellen vergeben werden sollen (decimals). Falls Ganzzahlen intakt gelassen werden sollen (insbesondere sinnvoll bei Gruppennummern etc.), muss das Feld Exclude integers aktiv gestellt sein. Wenn die Auswahl jedoch nicht gewünscht wird, dann kann die Möglichkeit auch abgestellt werden, indem Adjust tables deaktiviert wird. • • Die Protokolloptionen geben vor, was alles in das Protokoll geschrieben wird (wegen möglicher Fehlerkorrekturen am Programm). Die Info page: Spacing – Funktion rückt im Infofeld die Inhalte um x Zeichen ein, voreingestellt sind 25 Zeichen bis zum zweiten Block rechts. In Abbildung A2.8 ist die vom Programm generierte Texteinrückung deutlich zu erkennen. Im Skript wird anstelle der Einrückung ein „|“ eingesetzt. Mit der Save-Options-Funktion können die Optionen als Voreinstellung gesichert werden, sie werden (weitgehend) beim Neustart des Programms übernommen.

•

Anhang 2: Der RefXP Reader

13

A2.7 Anhang
A2.7.1: Headline- und Topicliste

HEADLINE

Abbreviation/ TOPIC Identific. Code

Abbreviation

INFORMATION Data Sources

00 01

%About RefXP Information

00 01

Anthropometric

AN

BMI Body height Body surface Body weight Compartments Activity Education Household Indoors Occupation Outdoors Shopping Sleep Specific activities Sporting activities Traffic Alcoholic beverage Bread, bakery prod. Butter Calorie intake Cheese Coffee

BM BH SF BW CP AT ED HH IN OC OD SH SL AS SP TR FA PB FB CI CH PC

Time budget

TB

Food consumption

NU

14 Eggs Fat, oil Fish Food consumption Fresh vegetables Fruit products Fruits Goodies Homegrown Jam Meat Milk Nonalcohol. beverage Nutriments Potatoes Sausage Spicery Sugar Tea Tropical fruits Vegetable products Tap water

Anhang FE FO FF FC FV PU FU FG HL FJ FM FK FW FN FP PM FY FS PT FT PV TW SI BR SF LA LE RT YC

Soil intake Inhalation Dermal contact
Residence charact.

SO IH DM CR

Soil ingestion Breathing rate Dermal Living area Living environment Time of residence Year of construction

Body burden

BB

Anhang 2: Der RefXP Reader

15

A2.7.2: Datenquellen und Abkürzungen
Zur Benutzung in der Datenbank + als allgemeine Abkürzung im Text Zur Benutzung beim Skripteinlesen Data file=...\)

Nationale Verzehrsstudie Gesundheitssurvey Ost-West Umwelt-Survey 1990/92 Umwelt-Survey 1998 Bundes-Gesundheitssurvey 98 Sozio-oekonom. Panel Nationaler Untersuchungssurvey

NVS 1985/89 OW 1990/92 US 1990/92 US 1998 BGS 1998 SOEP 2000 NUS 1990/91 Schule HH Schule NS Literature/ author

NVS OW91 Umweltsurvey US98 BGS98 SOEP NUST2 Schule Schule Literature

Schulärztliche Untersuchungen

Literaturquellen

16

Anhang

A2.7.3: Skriptvorlage Xprob für den Info Block

Info={ VARIABLE [unit] Headline | Topic | Variable | Unit | Question / Item Algorithm | Sex | Age range | Effective sample size | Data Source | Survey period | Reference | Data owner | Data analysed by | Data analysis | Published in | Restrictions |0000000 Additional keywords | }

Anhang 2: Der RefXP Reader A2.7.4: Beispielskript1 SAS
//**************************************************// //KOMMENTIERUNG //OUTPUT FOR REFVALUE //DATE=16DEC2004 //TIME=10:37 //DIR=c:\refval\ //FILE=d:\ Xprob-Auswertg\SOEP\Daten\2001a.por //***************************************************// TOPIC=TB; PARAMETER=WH; DATA SOURCE=Sozio-oekonomisches Panel; DATA DIR=C:\refval\; DATA FILE=soep\tb\wh2w.xml; AGE GROUPS= 17; 98; SEX GROUPS=F; NGROUPS= 6; INFO={ household work per workkday [h]

17

Topic | TIME BUDGET Parameter | HOUSEHOLD WORK Unit | hours Sample Size | 10865 Question / Item | Wie sieht gegenwärtig Ihr normaler Alltag aus? Wie viele Stunden pro Tag entfallen bei Ihnen an einem durchschnittlichen Werktag auf die folgende Tätigkeit? Hausarbeit (Waschen, Kochen, Putzen) Data Source | Sozio-oekonomisches Panel Year | 2001 Data owner | Deutsches Institut für Wirtschaftsforschung (DIW) Data analysed by | SOEP / Xprob / HH-Cl Data analysis | Basis of the data analysis is original data (selected questions) Published in | ? Republished in | ? Restrictions |0000000 Comments | xy Other | Angaben in ganzen Stunden, Auswertung ohne Gewichtung } VARLABELS={ SEX= sex, AGEGRP= age group, AGEMIN= minimal age in group, AGEMAX= maximal age in group, NOBS= number of observations, MEAN= arithmetic mean, STDDEV= standard deviation, SKEWNESS= skewness, VARIANCE= variance, MAXIMUM= maximal value, MINIMUM= minimal value, MEDIAN= median, IQUART= interquartile range, } DATA={ AGEGRP,SEX,NOBS,MEAN,STDDEV,SKEWNESS,VARIANCE,MAXIMUM,MINIMUM,MEDIAN,IQUART 1,F, 1014,1.6282051,1.2115084,3.2081647,1.4677526, 12,1,1, 1 2,F, 1849,2.7317469,1.8523628,1.5294114,3.4312481, 12,1,2, 3 3,F, 2412,2.9548093,1.8636734,1.5983812,3.4732784, 15,1,2, 2 4,F, 1881,2.8096757, 1.670435,1.4782806,2.7903531, 12,1,2, 2 5,F, 1694,3.2632822,1.6912576,1.3002086,2.8603521, 15,1,3, 2

1

Wie am Skript deutlich zu erkennen, ist dieses vom SAS-Programm automatisch generierte, nur im Infoblock bearbeitete Skript nicht sonderlich gut formatiert. Gleichwohl ist der RefXP Reader in der Lage, die Elemente in eine standardisierte Form zu bringen und die Inhalte in die Tabellen der Datenbank RefXP einzulesen. Ein strukturierteres Beispiel ist in Abschnitt A2.7.5 zu sehen.

18
6,F, 2015,3.2044665,1.5654791,1.0696998,2.4507248, 12,1,3, 2 }

Anhang

GROUP=1; DATA2={ GRP,AGEMIN,AGEMAX,AGEMID,GEOMMEAN,GEOMSTDDEV 1, 17, 24, 20.5,1.3883921, 1.654979 }

GENERALF={ TYPE = GeneralF, RANK = 0, PT= 0,531864.78, 0.48,0.9363887,6.4020136, KS=0.4375425, //Kolmogorov-Smirnov-Abstand von GF zur Empirie

TYPE = Loglogistisch, RANK = 1, PT= 0,0.7860516,3.6637402, AP=0.1468395, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Lognormal, RANK = 2, PT= 0,0.7202655,1.9859419, AP=0.1646372, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Gamma, RANK = 3, PT= 0,3.2953703,0.6141783, AP=0.2127047, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Weibull, RANK = 4, PT= 0, 0.544322,1.5743056, AP=0.2243225, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Exponential, RANK = 5, PT= 0,0.6141732, AP=0.3756096, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF } FREQ={ VALUE EMP.FREQ. GF-FIT Loglogistisch 1 0.6538462 0.7254296 0.6464649 2 0.2140039 0.2164603 0.2759105 3 0.066075 0.0374343 0.0536809 4 0.0276134 0.0111239 0.0142694 5 0.0187377 0.0043963 0.0050129 6 0.0098619 0.0020701 0.0021284 7 0.0009862 0.0010978 0.001032 8 0.0059172 0.0006347 0.0005516 9 0.0009862 0.0003917 0.0003176 10 0.0009862 0.0003487 0.0002625 12 0.0009862 0.0006126 0.0003694 } MOMENTS={ TERM MEAN STDDEV SKEWNESS VARIANCE MEDIAN

EMPIR. GENER.F Loglogistisch 1.6282051 1.425014 1.4425766 1.2115084 0.8298182 0.8506733 3.2081647 61.172007 6.0015097 1.4677526 0.6885982 0.7236451 1 1.2147538 1.2721811

Anhang 2: Der RefXP Reader
IQUART } 1 0.5247267 0.7744399

19

GROUP=2; DATA2={ GRP,AGEMIN,AGEMAX,AGEMID,GEOMMEAN,GEOMSTDDEV 2, 25, 34, 29.5,2.2200903,1.9021658 } GENERALF={ TYPE = GeneralF, RANK = 0, PT= 0,260063.81,6.5130111,0.5105724,0.6286941, KS=0.2085717, //Kolmogorov-Smirnov-Abstand von GF zur Empirie

TYPE = Lognormal, RANK = 1, PT= 0,0.4504292,1.5556361, AP=0.0265513, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Gamma, RANK = 2, PT= 0, 2.565291,0.3660684, AP=0.0706607, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Loglogistisch, RANK = 3, PT= 0,0.4535807,2.5820097, AP=0.0250538, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Weibull, RANK = 4, PT= 0,0.3255113, 1.603294, AP=0.0863657, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Exponential, RANK = 5, PT= 0,0.3660661, AP= 0.211917, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF } FREQ={ VALUE EMP.FREQ. GF-FIT Lognormal 1 0.3077339 0.2845064 0.270948 2 0.2568956 0.3138847 0.3023239 3 0.158464 0.1729884 0.1872985 4 0.1195241 0.0911464 0.1035657 5 0.0795024 0.0502616 0.0567803 6 0.0427258 0.0292845 0.0317364 7 0.0086533 0.0179416 0.0182181 8 0.0146025 0.0114795 0.0107508 9 0.0005408 0.007622 0.0065136 10 0.0075717 0.0052236 0.0040439 11 0.0005408 0.003679 0.0025674 12 0.003245 0.0119821 0.0052532 } MOMENTS={ TERM MEAN STDDEV SKEWNESS VARIANCE MEDIAN IQUART

EMPIR. GENER.F Lognormal 2.7317469 2.7973017 2.7296289 1.8523628 2.4867489 1.9525556 1.5294114 6.8219357 2.5119726 3.4312481 6.1839203 3.8124733 2 2.1275251 2.2201048 3 1.9247236 1.9860662

20
}

Anhang

GROUP=3; DATA2={ GRP,AGEMIN,AGEMAX,AGEMID,GEOMMEAN,GEOMSTDDEV } GENERALF={ TYPE = GeneralF, RANK = 0, PT= 0,5611.9535, 3515.341,0.4060524,0.0355201, KS= 0, //Kolmogorov-Smirnov-Abstand von GF zur Empirie

TYPE = Lognormal, RANK = 1, PT= ., 0.405466,1.6513308, } MOMENTS={ TERM MEAN STDDEV SKEWNESS VARIANCE MEDIAN IQUART }

EMPIR. GENER.F Lognormal 2.9548093 2.963367 1.8636734 1.9760242 1.5983812 . 3.4732784 3.9046717 2 . 2 .

. . . . . .

GROUP=4; DATA2={ GRP,AGEMIN,AGEMAX,AGEMID,GEOMMEAN,GEOMSTDDEV 4, 45, 54, 49.5,2.3839982,1.7850359 } GENERALF={ TYPE = GeneralF, RANK = 0, PT= 0,701.79368,2229.8123,0.4167294,0.0747394, KS=0.1637145, //Kolmogorov-Smirnov-Abstand von GF zur Empirie

TYPE = Lognormal, RANK = 1, PT= 0, 0.419464,1.7262739, AP= 0.001505, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Gamma, RANK = 2, PT= 0,3.2004293,0.3559117, AP=0.0375268, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Loglogistisch, RANK = 3, PT= 0,0.4151506, 2.941758, AP=0.0148996, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Weibull, RANK = 4, PT= 0, 0.314566,1.8087029, AP=0.0599007, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Exponential, RANK = 5,

Anhang 2: Der RefXP Reader
PT= 0, 0.355913, AP=0.2328638, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF } FREQ={ VALUE EMP.FREQ. GF-FIT Lognormal 1 0.2158426 0.2114943 0.2119122 2 0.3024987 0.3197041 0.3207728 3 0.2094631 0.2144348 0.2136063 4 0.1376927 0.1181665 0.1173229 5 0.0701754 0.0622918 0.0618918 6 0.0334928 0.0329007 0.0328124 7 0.0063796 0.017689 0.0177471 8 0.0170122 0.009732 0.0098382 9 0.0015949 0.0054852 0.0055939 10 0.0037214 0.0042192 0.0043533 12 0.0021265 0.0038825 0.0041493 } MOMENTS={ TERM MEAN STDDEV SKEWNESS VARIANCE MEDIAN IQUART }

21

EMPIR. GENER.F Lognormal 2.8096757 2.8174913 2.8195055 1.670435 1.7657591 1.7803893 1.4782806 2.0812386 2.1461461 2.7903531 3.1179053 3.1697859 2 2.3892091 2.3839947 2 1.9127643 1.9107122

GROUP=5; DATA2={ GRP,AGEMIN,AGEMAX,AGEMID,GEOMMEAN,GEOMSTDDEV 5, 55, 64, 59.5,2.8523284,1.7097216 } GENERALF={ TYPE = GeneralF, RANK = 0, PT= 0,6.3056595,180940.76,0.3154976,0.7717525, KS=0.1403849, //Kolmogorov-Smirnov-Abstand von GF zur Empirie

TYPE = Gamma, RANK = 1, PT= 0,3.8733576,0.3064389, AP=0.0078575, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Lognormal, RANK = 2, PT= 0,0.3505925,1.8650844, AP=0.0269661, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Loglogistisch, RANK = 3, PT= 0, 0.34161,3.2648434, AP=0.0217478, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Weibull, RANK = 4, PT= 0, 0.270733,2.0442661, AP=0.0364736, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Exponential, RANK = 5, PT= 0,0.3064399, AP=0.2510631,

22
// Kolmogorov-Smirnov-Abstand vom Untermodell zur GF } FREQ={ VALUE EMP.FREQ. GF-FIT Gamma 1 0.1180638 0.1182027 0.1198885 2 0.2526564 0.2596387 0.2514281 3 0.2438017 0.2503265 0.2499322 4 0.1912633 0.1717553 0.1765546 5 0.1003542 0.0993939 0.103236 6 0.0649351 0.052197 0.0535527 7 0.0053129 0.0258173 0.0255783 8 0.0141677 0.0122827 0.0115013 9 0.0005903 0.0056933 0.0049389 10 0.0059032 0.0032913 0.00255 12 0.0023613 0.0012186 0.0007649 15 0.0005903 0.0001826 0.0000745 } MOMENTS={ TERM MEAN STDDEV SKEWNESS VARIANCE MEDIAN IQUART }

Anhang

EMPIR. GENER.F Gamma 3.2632822 3.2633996 3.2632929 1.6912576 1.6891205 1.6581059 1.3002086 1.1596375 1.0162164 2.8603521 2.853128 2.7493152 3 2.9563401 2.9871666 2 2.1187245 2.1306844

GROUP=6; DATA2={ GRP,AGEMIN,AGEMAX,AGEMID,GEOMMEAN,GEOMSTDDEV 6, 65, 97, 81,2.8268124,1.6858827 } GENERALF={ TYPE = GeneralF, RANK = 0, PT= 0,1.7729986,9.9490447,0.3056003,1.7541189, KS=0.1463004, //Kolmogorov-Smirnov-Abstand von GF zur Empirie TYPE = Gamma, RANK = 1, PT= 0,4.1467738,0.3120672, AP=0.0085432, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Weibull, RANK = 2, PT= 0,0.2758829,2.1635144, AP=0.0272052, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Lognormal, RANK = 3, PT= 0,0.3537585,1.9151107, AP=0.0419006, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Loglogistisch, RANK = 4, PT= 0,0.3423949,3.3670534, AP=0.0290183, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF TYPE = Exponential, RANK = 5, PT= 0,0.3120644, AP=0.2590231, // Kolmogorov-Smirnov-Abstand vom Untermodell zur GF }

Anhang 2: Der RefXP Reader

23

FREQ={ VALUE EMP.FREQ. GF-FIT Gamma 1 0.1200993 0.1147848 0.115152 2 0.239206 0.2520548 0.2601695 3 0.2605459 0.2643217 0.2598873 4 0.2044665 0.1850631 0.1787554 5 0.0972705 0.1015743 0.0999582 6 0.057072 0.0478722 0.0490212 7 0.0094293 0.0205405 0.0219602 8 0.0059553 0.0083459 0.0092077 9 0.0004963 0.003299 0.0036706 10 0.0029777 0.0016042 0.0017314 12 0.0024814 0.0005395 0.0004865 } MOMENTS={ TERM MEAN STDDEV SKEWNESS VARIANCE MEDIAN IQUART }

EMPIR. GENER.F Gamma 3.2044665 3.2050318 3.2044378 1.5654791 1.5555556 1.5736084 1.0696998 0.9489614 0.9821432 2.4507248 2.4197531 2.4762435 3 2.9791459 2.9508617 2 2.0045446 2.0287963

24 A2.7.5:

Anhang Skriptbeispiel für eine Übernahme von Tabellenwerten aus einer externen Quelle

Neben der Übernahme von ergänzten SAS-generierten Skripts können auch Informationen aus veröffentlichten Tabellen anderer Quellen oder in anderen Software-Umgebungen generierte Tabelleninhalte in die Datenbank übernommen werden. Natürlich sollte die Informationsseite im vorgegebenen Standard (siehe Abschnitt A2.7.3) gegliedert an die Daten einbindende Stelle abgegeben werden. Ansonsten sind die Reihenfolge und die Inhalte mit dem oben aufgeführten SAS-orientierten Skript weitgehend identisch.
//**************************************************// //KOMMENTIERUNG erfolgt durch einen Doppelquerstrich am Zeilenanfang //STANDARD SKRIPT BEISPIEL: TABELLEN-UEBERNAHME //FIKTIVES TABELLENBEISPIEL //DATE=16APR2007 //TIME=14:37 //DIR=c:\refval\ //Hier schreibt man sich in der Regel ein Memo hin, wo die Tabelle herkommt, //das macht ggf. die Redaktion leichter und sicherer //FILE=YXStudie/Tabellen/Tab1.xls //***************************************************// TOPIC=TB; PARAMETER=FW; VARIABLE=Probiotic drinks; DATA SOURCE=Studie XY (2007); //Zielverzeichnis für die Dateneinbindung, hier ein Testverzeichnis DATA DIR=c:\RefXPCheck\; //Dateiname für die Tabelleninhalte //mit relativ zum Zielverzeichnis angegebener Verzeichnisstruktur //CAVE: Wird eine tiefere Verzeichnisstruktur als eine Ebene gefordert, //dann muss der NUTZE dieseeinrichten. Das Programm generiert alleine //eine Verzeichnisebene unter dem Zielverzeichnis. DATA FILE=XYStudie\TestTab1.xml; AGE GROUPS= 17; 65; SEX GROUPS=F; NGROUPS= 3; INFO={ Probiotic Joghurt drinks [g/week] Headline NUTRITION Topic Milk products Variable Probiotic Joghurt drinks Unit [g/week] Sample Size 2015 Question / Item Wieviele Joghurt-Drinks/Probiotische Jogurtgetränke verzehren Sie pro Woche? Data Source XY-Consumer-Studie Year 2007 Data owner Telefoninterview by XYZ Data analysed by HH-XXX Data analysis Data analysis is done original data (selected questions plus size of products) Comments Foodgroup not notified NVS_LMG90.asc / adults Restrictions 1001101 Additional keywords Ernaehrung; Probiotisch; Frauen; Nahrungsergänzung } VARLABELS={ AGRP= age group, AMIN= minimal age in group, AMAX= maximal age in group, AMID= mid age in group, NOBS= number of observations, MEAN= arithmetic mean, STDDEV= standard deviation, MEDIAN= median, ZEROMASS= percent no consumption,

Anhang 2: Der RefXP Reader
Q25= 25th quantile, Q95= 95th quantile, Q99= 99th quantile, } DATA={ AGRP,AMIN,AMAX,AMID,NOBS,MEAN,STDDEV,MEDIAN,ZEROMASS,Q25,Q95,Q99 1,17.0,25.0,21.0,2,26.7,26.0,22.4,0.2,4.7,74.2,111.3 2,25.0,45.0,35.0,120,13.3,15.9,9.7,0.4,0.0,43.0,69.8 3,45.0,65.0,55.0,196,7.1,9.3,4.5,0.4,0.0,25.0,39.7 }

25

Sofern es nur um die Tabelle ginge, wäre die Arbeit nach dem Einlesen über den RefXP Reader fertig. Es wird empfohlen, die erfolgten Eintragungen nochmals zu kontrollieren. Die Neueinträge stehen als letzte Zeile im Fenster “Basic Data Set”. Sofern Änderungen im Skript zu mehrfachen Eintragungen geführt haben, sollten die überflüssigen Eintragungen gelöscht werden; dies erfolgt durch Drücken des “Minus-Button” (linke Markierung in Abb. A2.11). Änderungen in einzelnen Feldern sollten durch Drücken des “Übernehmen Buttons” (rechte Markierung in Abb. A2.11) bestätigt werden, um eine Sicherung in der Tabelle in jedem Fall zu gewährleisten. Die Bedeutung der anderen “Buttons” wird angezeigt, wenn die Mausposition (der Cursor) über der Schaltfläche gehalten wird.

Abbildung A2.11: Ausschnitt des Fensters „Basic Data Set” und Funktionsknöpfe

Soll für eine der Gruppen (Strata) zusätzliche Information in die Tabelle übernommen werden, so muss dies für alle Gruppen erfolgen. Zurzeit sind folgende Felder für Speicherung der Information für jede Gruppe vorgesehen:
• • • • • QUANTILES GENERALF MOMENTS für eine Liste von Quantilen und entsprechende Werten für die Anpassung and die GF- und die 2-parametrischen Verteilungen für die Auflistung der Momente (falls nicht in der Haupttabelle)

CORRELATION für die Aufnahme von Korrelationsmatrizen (noch keine Anwendung) COVARIANCE für die Aufnahme von Kovarianzmatrizen (noch keine Anwendung)

Das Verfahren der Ergänzung des Skripts ist Folgendes: Für jede Gruppe wird ein Block mit allen Eingaben gebildet; die Gruppe erhält eine aufsteigende Nummer, dann kommen die spezifischen Informationen für die Quantile, die Korrelation, usw. Die Struktur ist nachfolgend für zwei Gruppen exemplarisch dargestellt.

26

Anhang

GROUP=1; QUANTILES={ 0.01 22 0.05 26 ... 0.99 68 } CORRELATION={ Consumption } GROUP=2; QUANTILES={ 0.02 26 0.05 29 ... 0.99 56 } CORRELATION={ Consumption } BodyWeight -0.45 BodyWeight -0.75

…. Die zwischen den geschweiften Klammern stehenden Textteile werden als Liste in das entsprechende Tabellenfeld eingetragen, es wird keine Umformatierung oder Bearbeitung vorgenommen. Im Xprob-Projekt wurde dieses Programm mehrfach den Bedürfnissen der Projektgruppe und insbesondere den Wünschen der datenverarbeitenden Personen angepasst, es stellt daher eine Kompromisslösung zwischen wünschbarer Einfachheit, notwendiger Transformation von speziell erstellten SAS-basierten Ausgaben in standardisierte Tabelleninhalten und der Bereitstellung eines Rahmens zur Eingabe von existierenden Tabelleninhalten dar. Wie für alle Arbeit mit empirischen Daten gilt auch für dieses Eingabeprogramm, dass nur eine sorgsame Prüfung des Ergebnisses der Übertragung auch die Gewähr dafür gibt, dass alle Eintragungen den Zielen entsprechend umgesetzt sind.

Anhang 2: Der RefXP Reader

27

A2.7.6: Disclaimer

Program RefXP, Teilprogramme und Komponenten
Documentation of the eXPosure REFerence (RefXP) value software Beta 1.5 Test version / Last Update 2007/03/28 © 1998-2007 MiSc / AgE E Mail schuemann@uke.uni-hamburg.de now better: Michael.Schuemann@bsg.hamburg.de

Please feel free to distribute the software together with the complete data set of reference values far and wide in it's unmodified, shipping form, but : Standard Disclaimer: This software has the status of a beta software development version and is provided AS IS without warranty of any kind, either expressed or implied. The entire risk as to the quality and performance of the software and data is with you. Should the software prove defective, you assume the cost of all necessary servicing, repair, or correction. In no event shall the author, the copyright holder, the participating institutions, the sponsor or any other party who may redistribute the software be liable to you for damages, including any general, special, incidental, or consequential damages arising out of the use or inability to use the software (including, but not limited to, loss of data, data being rendered inaccurate, loss of business profits, loss of business information, business interruptions, loss sustained by you or third parties, or a failure of the software to operate with any other software) even if the author, copyright holder, or other party has been advised of the possibility of such damages. The data ownership remains within the project group Xprob (AgE/ Univ. Hamburg, IBS Univ. Bremen, FB Gesundheitswissenschaften Univ. Bielefeld, lögd/ NRW Bielefeld), the sponsoring institution (Umweltbundesamt, FG II 1.3-W) and the owners of the primary data sources. The mission of the project, a list of all project partners and contact addresses are documented on the website www.riskom.uni-bremen.de/xprob . RefXP is an Open Source Project, but this file collection includes not its software source code. The source code, written in Delphi 5 [Borland/Inprise Inc. (c) 1998-2001] using ADO and Delphi 7 [Borland Inc. (c) 1983-2002] using Midas (Client data sets with XML format) is available from the author. It is not public domain software code because the author, the project group and the sponsoring institutions retain all rights to it. However, before you distribute it please take the time to get the latest version (software and data) of it from our web page www.apug.de/risiken/forschungsprojekte/xprob/abschlussbericht.htm or from www.riskom.uni-bremen.de/xprob . Any time I fix a bug or add a feature, it will be posted to my web page first. On the

28

Anhang

other hand new data sets compiled for reference proposals will be published on that site too. In case of errors the author should be informed by an email containing the information of the "Run Prt" protocol of the actual run of the software together with information about the directory of installation, the data directory, the type of computer and net as well as the current software version (Microsoft 98/2000/NT/XP/ …). If you have recommendations for the future work of the project group, for new exposure reference values or for the functionality of this software you are invited to contact the author and the members of the project group.

============================================================== DISCLAIMER OF WARRANTY THE PROGRAMS AND DATA SETS ON THIS DISKETTE ARE PROVIDED "AS IS" WITHOUT WARRANTY OF ANY KIND. WE MAKE NO WARRANTIES, EXPRESS OR IMPLIED, THAT THE PROGRAMS AND DATA ARE FREE OF ERROR, OR ARE CONSISTENT WITH ANY PARTICULAR STANDARD OF MERCHANTABILITY, OR THAT THEY WILL MEET YOUR REQUIREMENTS FOR ANY PARTICULAR APPLICATION. THEY SHOULD NOT BE RELIED ON FOR SOLVING A PROBLEM WHOSE INCORRECT SOLUTION COULD RESULT IN INJURY TO A PERSON OR LOSS OF PROPERTY. IF YOU DO USE THE PROGRAMS OR PROCEDURES IN SUCH A MANNER, IT IS AT YOUR OWN RISK. THE AUTHORS AND PUBLISHER DISCLAIM ALL LIABILITY FOR DIRECT, INCIDENTAL, OR CONSEQUENTIAL DAMAGES RESULTING FROM YOUR USE OF THE PROGRAMS OR PROCEDURES ON THIS SOFTWARE AND DATA COLLECTION. Unless otherwise noted, all materials provided in this release are Copyright 1998 - 2007 by AgE Hamburg

A3 Technische Dokumentation des Prototyps RefXP: Reference values for eXPosure factors
Michael Schümann Die vom AUH (1995) entwickelten und noch als aktuell eingestuften Empfehlungen und die innerhalb des Xprob-Projektes neu abgeleiteten Verteilungen sollten in einer vereinheitlichten Form als Tabellen dargestellt und für die zukünftigen Nutzer zugreifbar sein. Die Anwendungsentwicklung einer Dokumentationsdatenbank hat dabei das Ziel verfolgt, Referenzdaten für Expositions- und Risikoabschätzungen in einer angemessenen und festen Struktur zu bereit zu stellen, diese auf ihre Nutzbarkeit für die Dokumentation zu prüfen und ausgewählte externe Tabellen bzw. innerhalb des Projektes ausgewertete und evaluierte Dateninhalte in dem entwickelten Format zu speichern. Das Programmkonzept soll die zu erwartende Komplexität (Anzahl der Dokumente mit differenzierten Analysen für unterschiedliche Alters- und Geschlechtsgruppierungen, Stratifikation nach Sondergruppen) reduzieren und als standardisierter Rahmen allen Projekteilnehmern zur Verfügung stehen. Eine systematische und einheitliche Dokumentationsvorgabe war bei der Vielzahl der analysierten Datenquellen und Variablen einerseits und der hohen Abschichtung nach Alters- und Geschlechtsgruppen andererseits unverzichtbar. Als eines der Projektergebnisse sollen ausgewählte bestehende Referenzdaten (u. a. AUH-Standards) und neu vorgeschlagene Referenzwerte in einer interaktiven Form einem breiteren Nutzerkreis im Internet bzw. auf CD zur Verfügung gestellt werden können. Das Programm RefXP wurde nicht unter einem Softwareerstellungsvertrag des Projektförderers entwickelt; es ist daher ein wissenschaftliches Instrument und Arbeitswerkzeug, das projektbegleitend weitgehend unabhängig entwickelt wurde, jedoch innerhalb des Projektes einen wesentlichen Beitrag zur Standardisierung der Datenanalyse, zur vereinheitlichten Dokumentation und für die Anwendungstests gegeben hat.

A3.1 Dokumentationsstruktur für Expositionsfaktoren
Nahezu alle Sammlungen von Referenzdaten zur Expositionsabschätzung orientieren sich an einer inhaltlichen Gliederung, die dem Bericht des AUH (1995) vergleichbar ist. Eine Gliederungsebene für inhaltlich-fachlich abzugrenzende Bereiche, die sich auf anthropometrische und physiologisch-funktionelle Basisdaten und Umgebungs-, Verhaltens- und Konsumgewohnheiten beziehen, entspricht weitgehend den Kapitelüberschriften im Teil 2 des Abschlussberichtes. Innerhalb jedes Kapitels werden spezifische Themen bearbeitet (z. B. Körpergewicht und seine Variation über das Alter, das Geschlecht, etc.). Da zu jedem spezifischen Thema unterschiedliche Quellen und Daten vorliegen, wird noch-

1

2

Anhang

mals eine Gliederungsebene eingeführt, in der Information zu den Quellen, Daten und Verteilungen darzustellen ist. Hierbei sind die jeweils beschriebenen Analysen für Alters- und Geschlechtsgruppen nochmals untergliedert darzustellen. Die Gliederung der Datenhaltung und des Datenzugriffs wurde daher entsprechend gestaltet (Abbildung A3.1). Abbildung A3.1 Vereinfachte Darstellung der Struktur der Datenbank- und Zugriffsstruktur
Themenblöcke (Überschriften/Kapitel) Variablengruppen (Inhalte und Überschriften der Kapitel) Parameter (Bereiche und Abschnitte) Informationssammlung (systematische Auflistung von Quellen) Informationsquelle (Inhalt und Quellenbeschreibung) Gruppen (Strata) Tabellen (deskriptive Beschreibung) Verteilungen (Verteilungsanpassung)

Das Datenbankkonzept wurde entsprechend vierschichtig aufgebaut, die Verbindungen zwischen den Tabellen relational konzipiert und der jeweils aktuelle Datenzugriff mit einschränkenden Auswahlfiltern realisiert. Die Struktur der Tabellen wird im folgenden Abschnitt beschrieben. Auf die Inhalte der jeweiligen Ebenen wird im Leitfaden und in der Nutzeranleitung ausführlich eingegangen. Hier werden alleine technische Details der Prototypenentwicklung dargestellt.

A3.2 Dokumentation der Tabellenstrukturen
Die Information zu den Themenblöcken entspricht weitgehend Kapitelüberschriften von Standardwerken. In der Tabelle Topics1 werden diese Überschriften zusammengefasst (Tabelle A3.1). Die Tabelle enthält nur drei Felder (Spalten). In das Feld TOPIC mit der Länge 20 Zeichen (ASCII) werden die Überschriften (z. B. „Anthropometric“) eingetragen. Das Feld TOP enthält einen eindeutigen Schlüssel (z.B. AN für die Überschrift „Anthropometric“) und bildet den Index für den Zugriff und die Suche. Das Feld STRC enthält die von den Auto1

Auf Fragen der Implementierung und der Auswahl der Datenbanksprache wird in einem späteren Abschnitt vertieft eingegangen. Die Wahl der Tabellennamen der im Programm eingebundenen gebundenen Dateien „topics, para1, daten1a“ hat sich in der Projekthistorie entwickelt und verändert, sie folgt daher keiner namenbezogenen Systematik.

Anhang 3: Technische Dokumentation RefXP

3

ren gewählte Sortierreihenfolge in der Anzeige (entsprechend einer Gliederung des Berichtes nach Kapiteln). Die Tabelle kann später ergänzt oder umgestellt werden; hierbei muss die Eindeutigkeit der Schlüsselzuordnung und Sortierreihenfolge gewahrt werden.

Tabelle A3.1

Darstellung der Struktur für Kapitelüberschriften in Tabelle „Topics“ Variablengruppen (Inhalte)
Table Definition : C:\REFXP\TOPICS.XML Records : 91 Variables : 3 VarName TOP TOPIC STRC Type ftString ftString ftFloat Size 2 20 i 1 2 3

Aktuell sind die nachfolgend gezeigten Schlüssel (Indizes) mit der dargestellten Reihenfolge der Anzeige vergeben (Tabelle A3.2):

Tabelle A3.2

Darstellung der aktuellen Inhalte der Tabelle „Topics“ / Kapitelüberschriften
TOP 00 01 AN TB NU SO IH DM CR TOPIC INFORMATION Data Sources Anthropometric Time budget Food consumption Soil intake Inhalation Dermal contact Residence charact. STRC 1 2 3 4 5 6 7 8 9

Jedes Kapitel (Index TOP) enthält eine größere Anzahl von Einträgen, die als Parameter bezeichnet wurden. Um auch nichthierarchische Strukturen und ggf. Mehrfachverweise zuzulassen, wurde eine freie, ggf. mehrfach definierbare Bindung der Abschnitte an die Kapitel zugelassen. Diese Funktion wird durch die Tabelle Para1 gewährleistet. Das Feld TOP bindet die jeweiligen Abschnitte
1

Die in diesem Kapitel dargestellten Angaben zur Anzahl der Tabelleneinträge (records) müssen keineswegs mit der dem Leser vorliegenden Anzahl übereinstimmen. Die Tabellen werden laufend redaktionell bearbeitet und hierdurch ggf. erweitert bzw. geändert.

4

Anhang

an das Kapitel (s.o.), das Feld PARAMETER beschreibt den Inhalt des Abschnittes (Abschnittsüberschrift), das Feld PS stellt den Schlüssel zur Bindung an die Vielzahl der unterschiedlichen Datenquellen zur Verfügung (Tabelle A3.3). Tabelle A3.3 Darstellung der Struktur für Abschnittsüberschriften in Tabelle „Para1“ Parameter (Bereiche und Abschnitte)
Table Definition : C:\REFXP\PARA1.XML Records : 53 Variables : 3 VarName TOP PARAMETER PS Type ftString ftString ftString Size 2 20 3 i 1 2 3

In der nachfolgenden Tabelle (Tabelle A3.4) ist ein Auszug aus dem aktuellen Tabelleninhalt dargestellt. Wie zu ersehen, sind der Überschrift „Anthropometric“ (TOP-Index: AN) u. a. Angaben zur Körpergröße, zum Körpergewicht und zur Körperoberfläche zugeordnet. Dies stellt im Prinzip eine Hierarchie dar, wie sie sich auch für ein Buch ergeben würde. Von diesem Prinzip wurde allerdings begründet abgewichen. Da z.B. neben dem Kapitel „Anthropometric“ ein Kapitel „Dermal Contact“ eingeführt wurde und doppelte Datenspeicherung vermieden werden sollte, wären die Angaben zur Körperoberfläche doppelt aufzunehmen. Um dieses zu vermeiden, ist der abschnittsbezogene Index (PS) für „Körperoberfläche“ (SF für surface) z.B. doppelt angebunden. Die Suche in jedem der beiden Kapitel führt auf die ggf. gesuchte Information zu Angaben über die Körperoberfläche (berechnet auf der Grundlage verschiedener Quellen). Tabelle A3.4 Darstellung der aktuellen Inhalte der Tabelle für Abschnittsüberschriften (Auszug1)
TOP
01 TB AN AN AN AN IH AN TS DM

PARAMETER
Information Activity BMI Body height Body surface Body weight Breathing rate Compartments Data script Dermal

PS
01 AT BM BH SF BW BR CP BM SF

1

Die jeweils aktuell in den Datentabellen enthaltenen Datensätze kann jeder Nutzer über das Menü Checks| List of ... (Headlines, Topics, Parameters) abfragen. Das Ergebnis wird im Fenster Prt./Options angezeigt. Die Abfrage der Parameter prüft darüber hinaus auch die korrekte Anbindung der spezifischen Tabellen für die Datensätze (differenzierte Information zu einzelnen Variablen wie „Kalorienaufnahme in den Gruppen der 4 bis 19 jährigen Personen (männlich) berechnet auf der Basis der NVS 1985/89“.

Anhang 3: Technische Dokumentation RefXP

5

Die Sammlung aller Informationsquellen und der entsprechenden Daten erfolgt in der Tabelle daten1a. Die Tabelle hat die in Tabelle A3.5 dargestellte Struktur. Sie enthält den Index PS als Feld, um eine Filterung des Datenbestandes entsprechend des aktuell gewählten Abschnitts zu erlauben. Angezeigt werden in der Oberfläche des Programms RefXP die Angaben zu den Feldern
• • • • VARIABLE (spezifische Überschrift), AGEMIN und AGEMAX für die Altersbegrenzung, wie sie durch die Quellangaben vorgegeben ist, SEX als Gültigkeitsangabe für die jeweiligen Geschlechtsgruppen DATASOURCE als Kurzbeschreibung der zugrundeliegenden Datenquelle.

Tabelle A3.5

Darstellung der Struktur der Tabelle „Daten1a“ für die Quellen und Basisinformation

Informationssammlung (systematische Auflistung von Quellen und Information)
Table Definition : C:\RefXP\daten1a.xml Records : 716 Variables : 17 VarName PS AGEMIN AGEMAX SEX VARIABLE DATASOURCE FILETYPE DATAFILE INFO DISTRPARA VARLABELS UPDATE TMP ID SRTF RSTRC CHANGE Type ftString ftFloat ftFloat ftString ftString ftString ftString ftString ftMemo ftMemo ftMemo ftString ftString ftFloat ftString ftString ftString Size 3 i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17

2 20 30 1 40

40 1 12 20 14

Die Angaben zu den weiteren Feldern werden programmintern genutzt oder in Detailanzeigen des Programms verwendet: Das Feld ID kennzeichnet den Datensatz eindeutig und wird intern als Schlüssel genutzt (z.B. bei der Positionierung des Cursors bei der Suche und bei Verweisen). Im Feld FileType werden Änderungen durch den Nutzer (z.zt. eingeschränkt auf die Ersteller der Datenbank) protokolliert, um die Aktualität des jeweiligen Bearbeitungsstandes prüfen zu können (Tabelle A3.6).

6

Anhang

Tabelle A3.6

Definition des Inhalte des Feldes FileType (Änderungen)
Inhalt Leer A B C nach CRC-Check1 E F G H

Typ der Änderung Bislang keine Änderungen markiert Änderungen im Info-Block Änderungen im Datenblock Änderungen an beide Blöcken

Im Feld UPDATE ist markiert, wer bzw. welcher Kooperationspartner die Daten in die Datensammlung aufgenommen hat. Dieses Feld wird bei der Ausführung der Datenübertragung (Anwendung des Scriptreaders2) automatisch gefüllt. Im Feld CHANGE werden für die Zeit der Abschlussdatenbearbeitung im Projekt erfolgte Änderungen (Datum der letzten Änderung) markiert. Tabelle A3.7 Inhalte des Informationsfeldes INFO
Headline Topic Variable Unit Reference interval Sex Age range Data Source Reference Data analysed by Data analysis Published in Republished in Comments Restrictions Additional keywords Sample Size Question / Item Data owner Data analysed by Data analysis

1

2

Eine CRC-Prüfung (Berechnung des Cyclic Redundancy Checks) berechnet ein Äquivalent zur bitweisen Prüfsumme pro Datei und erlaubt eine Kontrolle jedweder Änderung im Datensatz. Sie wird bei Abgabe der Daten durch das Projektkonsortium an den Auftraggeber durchgeführt. Das Programm xmlScript ist ein ergänzendes Modul zur Übernahme von Information und Daten aus einem strukturierten Skript. Auf die Leitungen dieses Moduls wird in der technischen Dokumentation zum xmlScript gesondert eingegangen.

Anhang 3: Technische Dokumentation RefXP

7

Im Feld INFO wird die Information zum jeweils gewählten Datensatz strukturiert zusammengestellt. Die Liste der Kerninhalte ist in Tabelle A3.7 zu ersehen. Die hier zusammengestellten Angaben sollen eine Beurteilung des Datensatzes für den jeweiligen Modellierungszweck erlauben. Auf die Inhalte wird in Kap. 4 (Teil1) im Zusammenhang mit der Beschreibung der Datenquellen und der erfolgten Ableitung von Referenzwerten detaillierter eingegangen. Die Zeile „Additional Keywords“ enthält Schlagworte, die neben der Überschrift, der Variablenbezeichnung und der „Headline“ in den Thesaurus für die interaktive Suche einfließen. Die Zeile „Restrictions“ enthält einen Zifferncode aus sieben Werten (0 oder 1), der sich aus der Beurteilung der jeweiligen Datenqualität für den Zweck der Anwendung in Expositionsabschätzungen (Beurteilung/Einschätzung durch die Xprob-Gruppe) ergibt. Bei der Erstellung der Datenbank wird dieser Wert gewichtet umgerechnet und im Feld RSTRC gespeichert; er bildet eine mögliche Basis für die Sortierfolge bei der Anzeige. Das Feld DATASOURCE enthält die Information zum Pfad und zum Dateinamen für die Datei mit den spezifischen und ggf. nach Gruppen (meist Alter) stratifizierten Angaben. Bei Zugriff auf eine Datei wird dies in der Anzeige des Prt./Options protokolliert, sofern der Protokollmechanismus nicht deaktiviert wurde (Fenster Prt./Options unten, Schalter „File Access Prt“. Der Dateiname und -pfad beschreibt die Lokalisation der Datei relativ zum Programm, d.h. dem Verzeichnis (Directory) aus dem das Programm RefXP aufgerufen wurde. Das Feld VARLABEL enthält die Variablenbezeichner (Label) für die deskriptiven Statistiken, die in der referenzierten Datei verwendet werden. Das Feld DISTRPARA enthält eine Textkopie der Angaben der deskriptiven Beschreibung (Tabelle für die Variable stratifiziert nach Gruppen). Dieses Feld ist inzwischen redundant1, sollte jedoch für Prüfzwecke noch nicht aus der Tabellenstruktur herausgenommen werden. Die für die Variable und Geschlechtsgruppe spezifische Datei, die durch das Feld DATASOURCE bezeichnet wird, hat im Gegensatz zu den bislang genannten Tabellen keine vollständig und fest definierte Struktur. Dies hat seien Grund darin, dass neben der systematischen Beschreibung von publizierten Referenzdaten (z.B. AUH 1995) mit vergleichsweise wenigen Angaben (z.B. Altersbereiche, Geschlecht, CTE- und RME-Schätzung) vor allem die neu ausgewerteten Datenbereiche stehen, für die neben deskriptiven Statistiken, Quantile, Verteilungsanpassungen und ihre Gütebeschreibungen stehen. Der Bedarf an Tabelleninhalten variiert stark. Um sich in die Struktur der Datenbank einzupassen, sollen folgende Felder und folgende Feldbezeichnungen (und Feldtypen) verwendet werden (Tabelle A3.8); sofern nur deskriptiv ausgewertete Daten vorliegen entspräche die Struktur der in Tabelle A3.9 dargestellten Form.
1

In früheren Fassungen des Programms war vorgesehen, hier aus den Daten und Analysen abgeleitete Kommandos z.B. für die Simulationssprachen @Risk® und Analytica® abzulegen.

8 Tabelle A3.8 Vollständige Struktur für die spezifische Information zu einer Variablen Tabellen (deskriptive Beschreibung)
Verteilungen (Verteilungsanpassung) VarName AGEGRP AGEMIN AGEMAX AGEMID SEX NOBS MEAN STDDEV SKEWNESS VARIANCE MINIMUM MAXIMUM MEDIAN IQUART GEOMMEAN GEOMSTDDEV QUANTILES MOMENTS GENERALF CORRELATIO COVAR FORMULA Type ftFloat ftFloat ftFloat ftFloat ftString ftFloat ftFloat ftFloat ftFloat ftFloat ftFloat ftFloat ftFloat ftFloat ftString ftString ftMemo ftMemo ftMemo ftMemo ftMemo ftMemo Size i 1 13 14 15 2 3 4 5 6 7 9 8 10 11 16 17 18 19 20 21 22 23

Anhang

1

2 2

Für rein deskriptiv ausgewertete Daten (hier Körpergewichte) kann folgendes Muster stehen (Tabelle A3.9):

Tabelle A3.9

Partielle Struktur für die spezifische Information zu einer Variablen (Deskription) Tabellen (nur deskriptive Beschreibung)
Table CSV Defintion Records : 30 Variables : 15 VarName AGEGRP SEX AGEMIN AGEMAX AGEMID NOBS MEAN STD P1 ... P50 ... P95 : c:\RefXP\Potsdam\AN\BW1.XML

Type ftFloat ftString ftString ftString ftString ftFloat ftFloat ftFloat ftFloat ftFloat ftFloat

Size 1 5 5 5

i 1 2 3 3 3 4 5 6 7 11 14

Anhang 3: Technische Dokumentation RefXP

9

Für die Übernahme von Referenzwerten aus anderen Quellen kann folgendes Muster stehen (Tabelle A3.10): Tabelle A3.10 Struktur für die Information zu zitierten Referenzwerten Tabellen (nur Referenzdaten-Übernahme)
VarName AGEGRP SEX AGEMIN AGEMAX AGEMID ... CTE RME ... Type ftFloat ftString ftString ftString ftString ftString ftString Size 1 5 5 5 5 5 i 1 2 3 3 3 3 3

Im Prinzip sind auch Tabellen mit anderer Struktur einzubinden, dies wird jedoch nicht empfohlen, da die Sichten auf die Daten sehr uneinheitlich würden. Einige ältere Dokumente weichen von der Struktur ab. Um den gewählten Variablennamen (Feldnamen der Spaten) eine „Sinn“ zu geben, sollte für die jeweilige Variable in der Tabelle daten1a das Feld VARLABEL mit einer „Übersetzungshilfe“ gefüllt werden, wie in Tabelle A3.11 gezeigt. Tabelle A3.11 Struktur der Variablenlabel (VARLABEL)
SEX= sex, AGEGRP= age group, AGEMIN= minimal age in group, AGEMAX= maximal age in group, NOBS= number of observations, MEAN= arithmetic mean, STDDEV= standard deviation, ... CTE= central tendency estimate (median), RME= reasonable most exposed estimate (about 99%)

A3.3 Struktur der Zugriffe auf Tabellen
Bei jedem Wechsel der Cursurposition in einem der drei Bereiche Überschrift Abschnitt Parameter Daten müssen die Filter und Sortierungen in den untergeordneten Bereichen angemessen aktualisiert werden. Die Kaskade der Filter und Sortierungen wird über Datenquellen-Objekte der Programmiersprache Delphi® in Abhängigkeit des Ereignisses „Veränderung der Daten bzw. der Datenpositionierung“ realisiert. Diese Objekte sind den jeweiligen Tabellen (s.o.) zugeordnet und stellen die

10

Anhang

Verbindung zwischen den Tabellen einerseits und zu den Anzeigeobjekten (den Anzeigefenstern) dar (siehe Abbildung A3.2). Abbildung A3.2 Abhängigkeit der Tabellen und Veränderungsereignisse

Eine Veränderung im Datenbereich der Überschriften (Headlines) löst ein Ereignis aus, das zu einer Aktualisierung, nämlich Filterung des Inhaltes, der Tabelle der Abschnitte (Topics) führt. In diesem Schritt wird gleichzeitig eine Sortierung nach alphabetischer Ordnung der Topics vorgenommen. Diese Veränderung löst in der Ereigniskaskade wiederum eine Aktualisierung der Tabelle mit den jeweils zugeordneten Parametern aus. In diesem Schritt wird erstens eine Begrenzung der angezeigten Daten nach Geschlechtsgruppen vorgenommen, falls das Auswahlfeld „Sex Selection“ nicht auf den Inhalt „All“ eingestellt ist1. Zweitens wird der angezeigte Datenbereich (a) nach den Variablennamen alleine, (b) nach den Restriktionen alleine, (c) nach Restriktion und Variablennamen (in dieser Reihenfolge) oder nach (d) dem Namen der Datenquelle sortiert. Sofern dem ausgewählten Parameter eine Detailtabelle zugeordnet ist, wird diese geöffnet und die Fensterinhalte (Anzeige der Database Table und der weiteren Feldinformation) aktualisiert. Zu diesem Zeitpunkt2 finden u.a. auch erforderliche Umrechnungen von Parametern der General F-Verteilung statt. Im Fall eines Fehler wird ein akustisches Signal gegeben, im Fenster „Prt./Options“ kann der Fehlzugriff nachvollzogen werden, um die datenhaltende Stelle (nicht den Programmierer der Anwendung) über diese Datenlücke zu informieren.

A3.4 Funktion der Suchmaschine
Über die Funktion Search kann ein interaktiver Suchmechanismus angestoßen werden, der die Identifizierung von Dokumenten und Daten nach Schlüsselbegriffen, frei wählbaren Suchbegriffen (mit Wildcards) und Ausschlusskriterien in wählbarer logischer Verknüpfung ermöglichen soll. Um eine Menge von engli1

2

Die Bedeutung von „All“ unterscheidet sich vom „A“ dahingehend, dass unter Auswahl von „All“ alle Einträge gezeigt werden, unter Auswahl von „A“ werden nur solche Einträge gezeigt, die alleine für beide Geschlechtsgruppen zusammen abgeleitet wurden. Entsprechend schränkt die Eingabe „M“ die Daten auf die nur für männliche Personen geltenden Referenzwerte ein, für „F“ entsprechend auf die für weibliche Personen geltenden Daten. Alle Ereignisse und Methoden der Vermeidung von Fehlzugriffen sind an dieser Stelle nicht dokumentiert. Sie sind im Quellcode des Programms dokumentiert.

Anhang 3: Technische Dokumentation RefXP

11

schen und deutschen Suchbegriffen zu generieren, durchläuft das Programm bei ersten Start der „Suchmaschine“ die aktuellen Dateneinträge und bildet aus den Headlines, Topics und Parametern einerseits und den vorhandenen Informationen aus dem Informationsfeld der spezifischen Daten andererseits Suchlisten. Für die deutsche Sprache werden alleine die Einträge aus der Zeile „Additional keywords“ zugrunde gelegt1. Die relevanten Einträge werden in der Datei refXPIndex.xml gesammelt und zu englischen (Feld EKey) und deutschen (Feld DKey) Suchlisten-Einträgen verarbeitet (Tabelle A3.12).

Tabelle A3.12 Struktur der generierten Suchlisten-Datei
Table Definition : c:\RefXP\refXPIndex.xml Records : 393 Variables : 5 VarName Top PS Index DKey EKey Type ftString ftString ftWord ftString ftString Size 6 6 120 120 i 1 2 3 4 5

Die Felder TOP und PS haben die oben genannte Bedeutung, sie bilden einen Teil der Suchlisteneinschränkung, das Feld INDEX verweist auf das Feld ID und kennzeichnet damit Zugriffe auf Datensätze eindeutig. Der erstmalige Aufbau der Datei nach Start der Anwendung erfordert wegen der großen Anzahl von betrachteten Daten und ausgewerteten Merkmalen ein wenig Zeit, sofern keine Änderung an den Daten vorgenommen wird, ist dieser Datenbereich im Speicher verfügbar und wird bei mehrmaligen Aufrufen wieder verwendet; der Speicherbedarf (Arbeitsspeicher) hängt von Anzahl der Einträge ab, z.Z. überschreitet er jedoch nicht 0.1 MB reservierten Arbeitsspeicher. Die Suchlisten-Information wird zwar in der Datei „refXPIndex.xml“ gespeichert (sofern das Speichermedium, von dem das Programm RefXP gestartet wurde, dies zulässt), jedoch aktuell nicht „wiederverwertet“. Dies hat seinen Grund in der Notwendigkeit die Integrität und Aktualität der Daten bei noch aufzunehmenden Datensätzen zu erhalten. Generell müsste ein aufwendigerer Mechanismus zur Protokollierung von Veränderungen in das Programm aufgenommen werden, um gezielt – ohne Neuaufbau der Daten – den Aktualisierungsstand zu dokumentieren und im Programm zu nutzen. Der Aufwand, die Verfälschbarkeit und die Fehleranfälligkeit solcher Ansätze sprechen gegen eine solche Methode.

1

Dies führt bei einer Mischung von deutschen und englischen Einträgen übrigens zu einer „gemischtsprachigen“ Liste, was vom Autor nicht intendiert wurde, sich aber in der Praxis wohl so entwickelt hat.

12

Anhang

A3.5 Entwicklung einer formalen Tabellenstruktur
Die ursprüngliche Realisierung der Datenbank verfolgte folgende Ziele bezüglich der Anforderungen an die Skript-Form zur Einbindung neu aufzunehmender externer Datensätze (Zwischenbericht 2003): Kompatibilität Portabilität Einfachheit Struktur Datenbank Nutzung ASCII/Text-Format Excel- und Word-Lesbarkeit Formatierung als gegliedertes Textdokument Umsetzung in ein relationales System d/x/r-Base internes System / dBase-kompatibel

Die zuerst ausgelieferten Versionen enthielten die Borland Database Enginge BDE (Borland® 2001) als Hintergrund für die Datenaufnahme und -bearbeitung und als auch für die Datenfilterung und -anzeige [3,7,12]. Diese Konfiguration setzte einen unverhältnismäßig hohen Aufwand und zum Teil vertiefte EDVInstallationskenntnisse (insbesondere in Netzwerkumgebungen) auf der Seite der Nutzer zum Zeitpunkt der Erstinstallation der Anwendung voraus. Um diesen Aufwand zu minimieren, wurde die Anwendung vollständig in eine ADO1Umgebung [8,13,14] portiert. Mit einer zunehmenden Restriktion und Veränderung der Zugriffsmöglichkeiten im Zusammenhang mit der Einführung von Microsoft XP als Betriebssystem und mit späteren Änderungen durch neue Releases, Updates und Sicherheitspatches wurde der erhebliche Vorteil der Nutzung dieser Datenbank-Technologie wiederum eingeschränkt, da durch die lokal und anwenderspezifisch unterschiedlichen Rechner-Einstellungen und Freigabebedingungen die Installation, das Update und die Konfiguration erschwert wurden. In der Konsequenz hat der Programmautor nach Projektende eine vollständige Portierung des Programms und der Daten in eine XML-basierte Umgebung [5,6,11,15,16] vorgenommen. Alle im Programm verwendeten Tabellen sind im XML-Textformat strukturiert, die aktuellen Tabellenstrukturen wurden in den vorausgehenden Abschnitten beschrieben. Der Datenzugriff und ggf. die Datenveränderung erfolgt über Objekte des Typs ClientDataSet aus der Programmumgebung von Borland Delphi (Version 7 /Enterprise, Borland 2002). Die jeweils aktuellen Tabelleninhalte werden vollständig in den Arbeitsspeicher geladen und während der Bearbeitung im Arbeitsspeicher gehalten. Da die jeweils aktuellen Teiltabellen bezüglich ihrer Größe (Speicheranforderung) sehr übersichtlich sind, ist die Arbeitsspeicherlast des Programms RefXP sehr niedrig (ca. 5-10 MB). Die Datenhaltung im Speicher ermöglicht vergleichsweise gute Reaktionszeiten des Programms, auch wenn das Programm von einer CD oder von einem Speicherstick (USB) gestartet wird.

1

ADO (ActiveX Data Objects) - Microsoft® Standard für eine Datenbankzugriffsmethode

Anhang 3: Technische Dokumentation RefXP

13

A3.6 Extensible Markup Language (XML)
Die Sprache XML, in voller Bezeichnung Extensible Markup Language, ist ein vergleichsweise einfaches, flexibles und transparentes Textformat, das basierend auf SGML1 (ISO 8879) [15,16] im Jahr 1997 spezifiziert wurde und eine effiziente Verarbeitung und einfache Verwaltung von Information in strukturierten Dokumenten und Datenbanken erlaubt. Die Sprache XML ermöglicht es dem Nutzer hochstrukturierte Dokumente zu generieren und beinhaltet hierzu eine Zusammenfassung von Regeln zur Schaffung von Markup-Sprachen. Das Kürzel ML in XML steht für Markup Language. Eine Markup-Sprache ist jede Sprache, die einfachen Text zugrundelegt und Markierungen erlaubt2. Markups sind Informationen, die einem Dokument hinzugefügt werden, um auf definierte Weise dessen Bedeutungsgehalt zu erweitern. XML ist dabei keine reine Auszeichnungs- oder Markup-Sprache: XML ist besonders auf die Semantik (und die Hierarchien) innerhalb des Textes ausgerichtet, indem identifizierte Textteile eine bestimmte Bedeutung erhalten. Mit den Auszeichnungen (marks) werden einzelne Informationsteile gekennzeichnet und es wird festgelegt, wie diese Teile zueinander in Beziehung stehen. Die Markup-Sprache selber ist eine Menge von Symbolen, die im Text des Dokumentes platziert werden, um die einzelnen Teile des Textdokumentes gegeneinander abzugrenzen und bezüglich der Zuordnung zu Attributen zu benennen. Für weitergehende Informationen sei auf die Veröffentlichungen von W3C3 und die inzwischen weit verbreitete Standardliteratur zu XML verwiesen [9,13,15]. Die formalen und technischen Details der Sprache XML sind transparent, die entsprechenden Dokumente sind bei W3C direkt zugänglich gestellt. Mit Unicode3 als Standard-Zeichensatz unterstützt XML eine Vielzahl von Schriften und Symbolen sowie Sonderzeichen. Wesentliche Leistungsmerkmale von XML sind: Mit XML kann (nahezu) jede Art von strukturierter Information gespeichert und bearbeitet werden. Die XML-Dokumente sind mit jedem Texteditor (im Prinzip) les- und entschlüsselbar. XML stellt dabei Methoden zur Strukturierung, zur Überprüfung der Syntax und zur Prüfung der Integrität von Dokumenten zur Verfügung, dies wird aber in RefXP bzw. Delphi nicht unterstützt. Bezüglich der Syntax und seiner Strukturen ist XML von einer Reihe von Programmen gut zu lesen; die Sprache hat jedoch selbst keine Anzeigefunktionen. Für die im XML-Format gespeicherten Dokumente müssen Daten-geeignete Anzeigeprogramme bereitgestellt werden. Für weitergehende Informationen sei auf die Veröffentlichungen von W3C und Literaturquellen verwiesen [15,16].
1

2 3

Standard Generalized Markup Language (SGML): Bezeichnung für eine genormte verallgemeinerte Auszeichnungssprache, die auf Vorarbeiten von IBM und anderen bis in die Anfänge der 70er Jahre zurück reicht. XML ist gegenüber dieser Vorgängersprache deutlich in der Komplexität vereinfacht worden. So könnte beispielsweise jede rote Markierung von Text einer Fettschrift entsprechen, jede grüne einer Kursivschrift. Die Markierung gibt dem jeweiligen Textteil ein additives Attribut. World WideWeb Consortium (W3C): Bezeichnung für den freiwilliger Zusammenschluss von Firmen zur Förderung des Internets

14

Anhang

Ein wesentliches Kriterium für die Wahl von XML war es, dass die Sprache als offener Standard nicht an Spezifikationen einzelner Unternehmen oder an eine bestimmte Datenbank-Software (und ihren jeweiligen Update- und Entwicklungsstand) gebunden ist. Die Auszeichnungssprache XML wurde im Jahr 1998 als offener Standard vom W3C vorgestellt und seitdem dort weiter entwickelt und verwaltet. Ursprünglich wurde XML entwickelt, um Probleme bei der Publikation elektronischer Dokumente (insbesondere großer Informationsmengen und komplexer Datenstrukturen) zu bewältigen; heute hat XML eine bedeutende Rolle im Austausch von Daten und Dokumenten übernommen [5,13].

A3.7 Gestaltung der graphischen Oberfläche und der interaktiven Struktur des Programms (Graphic User Interface GUI)
Die graphische Benutzeroberfläche (GUI) des Programms soll in einer kompakten Form den Zugang zu den strukturierten und nutzerzugänglichen Daten in einer möglichst intuitiv verständlichen Ansicht ermöglichen [4,7,12]. Dies stellte bei der großen Datenmenge und der Anzahl der Bestandteile eine hohe Anforderung dar, zumal unterschiedliche Nutzer(-gruppen) unterschiedliche Prioritäten in Bezug auf die Darstellung, die Form und die Reihenfolge der Präsentation hatten. Die aktuell vorliegende Version der graphischen Oberfläche stellt einen Kompromiss zwischen technischen Möglichkeiten und den formulierten Bedürfnissen dar [3], der sich über die Projektlaufzeit entwickelt hat. Abbildung A3.3 zeigt das GUI des Programms in der aktuellen Form. Sie ist in vier Ebenen unterteilt: I. II. III. IV. Menüleiste Datensuche, -positionierung und -filterung Anzeige von spezifischen Daten Statuszeile

Die Bindung zwischen Datentabellen und angezeigter/aktualisierter Information findet alleine in den Ebenen II-III statt, die Ebene IV hat weitgehend einen Kontrollcharakter und soll die Übersichtlichkeit und subjektive Kontrolle insbesondere beim Wechsel der Ansichten innerhalb der Ebene III erlauben.

Anhang 3: Technische Dokumentation RefXP Abbildung A3.3: Benutzeroberfläche des Programms RefXP

15

A3.8 Ebene I: Menügesteuerte Funktionen
In der Menüleiste wurden nur solche Funktionen zugreifbar gestellt, für die keine interaktiven Elemente in den anderen Fenstern verfügbar sind [2]. Die Ansicht ist in Abbildung A3.4 gezeigt. Abbildung A3.4 Menüleiste des Programms RefXP

Database Edit Info Info Page to Clipboard Paste Clipboard to Info Page Save Changes Edit Data Save changes in data set Alt-S Quit

Strg-I Strg-P Strg-S

Alt-F4

16

Anhang

In diesem Menüteil wurden Funktionen zusammengefasst, die sich auf die Bearbeitung und den Austausch von Informationen im Informationsteil (Datei: daten1a) über das Clipboard und die Datensicherung im Informationsteil sowie in den spezifischen Tabellen beziehen. Änderungsereignisse sind nur dann möglich, wenn die Daten in einem veränderlichen Speichermedium gehalten werden (also nicht auf CD), Änderungen werden in den Tabellen markiert. Connection Open all tables Close all tables

Alt-O Alt-C

Die Funktionen stammen aus der Historie des Programms, sie sind insbesondere im Fall von Fehlern (mangelnde Referenz auf spezifische Tabellen oder Indizes) erforderlich gewesen, um das Programm in einen regulären Status zurück zu setzen. Als „Notbremse“ sind sie noch im Programm enthalten. DataTables Generate Table Alt-O Generate Formatted Table Generate CSV Table Generate Tab-delimited Table Build a Uses defined Table Save result table to file Copy result table to ClipBoard Clear result table

Festes Format Komma-separiert Tab-separiert Nutzerdefiniert Speichern in Datei Speichern Clipboard Löschen

Die Funktionen dieses Bereiches ermöglichen die Generierung von unterschiedlich formatierten Tabellen für die deskriptiven Tabelleninhalte. In der Nutzeranleitung wird dies detaillierter dargestellt. Search Die Funktion Search ruft das Modul „Generiere ein neues Fenster für die Suche in den Tabellen“ auf. Auf die Funktionalität und Tabellenstruktur (Abbildung A3.5) wurde bereits eingegangen.

Anhang 3: Technische Dokumentation RefXP Abbildung A3.5 Unterprogramm zur Informationssuche und Positionierung

17

Report Documentation (full) Save the Documentation to file Die Funktion hinter diesem Menüeintrag besteht in der Generierung eines vollständigen Dokumentes, das zu dem ausgewählten Parameter die in der referenzierten Tabelle enthaltene Information in einem Bericht zusammenstellt. Die Angaben zu einzelnen Strata (in der Regel Altersgruppen) werden blockweise dokumentiert. Die Ausgabe wird im Fenster Report der Ebene II angezeigt, sie kann redaktionell bearbeitet werden und durch die Save-Funktion als Rich-Text formatiertes Dokument gespeichert werden. Checks List of Headlines List of Topics List of Parameter

18

Anhang

Die Funktionen ermöglichen die Auflistung des aktuell bestehenden Datenbestandes und dessen Prüfung. Das Ergebnis wird im Fenster Prt./Options der Ebene II angezeigt. Es dient Kontrollzwecken. Screen Maximize Standard Die Funktionen erlauben es dem Nutzer, die vom Programm genutzte Fläche des Bildschirms zu wählen. Bei Programmende werden die Einstellungen in der Datei RefXP.ini gespeichert und bei einem Neustart wieder eingestellt. LogFile Show Error Protocol Save the Error Protocol to file Clear Die Auswahl positioniert die Anzeige auf das Fenster Prt./Options der Ebene II, erlaubt die Sicherung des aktuellen Inhaltes bzw. die Löschung der aktuellen Einträge. Diese Funktion hat zum Ziel, bei Problemen des Anwenders zumindest die aktuell gültigen Einstellungen und Tabellenverweise speichern und an die datenhaltende Stelle senden zu können. Das Ausgabeformat ist einfacher ASCII-Text. Info Der Aufruf generiert ein Informationsfenster, aus dem die aktuelle Version (letzte dokumentierte Änderung des Programmcodes und Kompilierung) erkennbar ist. Es dient der Kontrolle durch den Nutzer, ob ein Update des Programms angezeigt sein könnte. Ein programmgesteuerter Hinweis (z. B. nach einer bestimmten Zeit nach Installation) für ein mögliches Update wird nicht aufgenommen. Abbildung A3.6 Infofenster mit Angabe der Versionsnummer und des Progammstatus

Anhang 3: Technische Dokumentation RefXP Quit

19

beendet das Programm. Das Ereignis Programmende löst das Schließen aller Tabellen aus und stößt die Sicherung einer Reihe von Nutzereinstellungen in der Datei RefXP.ini an.

A3.9 Ebene II: Ansichten der Datenstruktur und Auswahlfunktionen
Die der Datenbank zugrunde liegenden Tabellen und deren Abhängigkeiten wurden bereits vorgestellt. In Abbildung A3.7 ist die auf nutzerrelevante Inhalte reduzierte Ansicht der Tabelleninhalte dargestellt. Editieren der Inhalte wird vom Programm nicht zugelassen.

Abbildung A3.7 Datenansicht (Datenpositionierungsebene) des Programms RefXP

A3.10 Ebene III: Ansichten der Daten und zugehörige Funktionen
In der zweiten Ebene der graphischen Nutzeroberfläche sind die Anzeigen der Tabelleninhalte zusammengefasst. Einzelne Fenster des mit Tabulatoren gekennzeichneten Registers von Einträgen (Abbildung A3.8) enthalten auch aktive Elemente, die vom Nutzer zur Erstellung von ausgewählten Dokumenten genutzt werden können. Die Seite Information enthält die im Xprob-Projekt für wesentlich erachteten Informationen. Auf die Struktur dieser Seite wurde bereits eingegangen.

20

Anhang

Abbildung A3.8 Cursor-gesteuerte Datenanzeige des Programms RefXP

Sofern der Nutzer im Fenster Prt./Options den Schalter Show Additional Info aktiviert hat (Abbildung A3.9), wird bei jedem Wechsel des Positionscursors die jeweilige Information zu möglichen Restriktionen (Qualität für die Nutzung der aktuellen Daten als Expositionsfaktor) angezeigt. Abbildung A3.9 Teilfenster des Fensters Prt./Options mit veränderlichen Optionen

In diesem Fenster wird der 7-stellige-Binärblock in der Zeile Restrictions in einen Text umgesetzt (Abbildung A3.10). Die Funktion Update status zeigt den Aktualisierungsstand der Gesamtdatenbank und der aktuell ausgewählten Datentabelle an. Dieses Fenster kann durch einen Klick (linke Maustaste) auf die Statusleiste (s. Abbildung A3.19) geschlossen und auch wieder geöffnet werden.

Anhang 3: Technische Dokumentation RefXP Abbildung A3.10 Fenster zur Anzeige der aktuellen Restriktionen (verbale Umsetzung)

21

Die deskriptiven Statistiken (und alle weiteren vorhandenen Tabellenfelder) werden in der Reihenfolge wie in der Referenztabelle im Fenster Database Table angezeigt (Abbildung A3.11). Mit diesem Fenster ist das Fenster Parameter Table direkt verbunden (Abbildung A3.12), dort können die Inhalte als Tabellen erzeugt und in andere Umgebungen kopiert werden. Im rechten Teilfenster ist die Auswahl der Felder steuerbar, die in Tabellen umgesetzt werden sollen. Felder des Typs ftMemo, d.h. Felder die Text als Inhalt enthalten, können nicht in Tabellen umgewandelt werden. Die Übersetzung der z.T. sehr kryptischen Feldnamen ist im Fenster unten rechts aufgenommen. Die Fenstergrößen können, ausgehend von den Begrenzungen zwischen den Feldern durch Drücken der linken Maustaste und Verschieben geändert werden. Die Breite der Felder und ihre Position im Fenster der deskriptiven Werte kann über den gleichen Mechanismus ebenfalls, allerdings nur temporär, geändert werden. Zum Verschieben wird das Feld mit der linken Maustaste über der Feldbezeichnung gehalten und verschoben. Das Fenster Database Table hat insgesamt eine kontrollierende und ggf. daten-editierende Funktion, für die formatierte Anzeige und den Datentransfer sollte das nachfolgend beschriebene Fenster genutzt werden. Das Fenster Parameter Table erlaubt die Generierung von Tabellen für die deskriptiven Statistiken und Kennziffern (Abbildung A3.12). Im linken Teilfenster wird die Stelligkeit eingestellt (Stellen insgesamt und Nachkommastellen) und die Tabellengenerierung angestoßen. In Tabelle A3.13 sind die Möglichkeiten der Tabellengenerierung und die wesentlichen Zielplattformen zusammengestellt.

22

Anhang

Abbildung A3.11: Fenster zur Anzeige der aktuell referenzierten Datentabelle, Auswahl von angezeigten Feldern und Variablen-Bezeichnungen

Tabelle A3.13

Auswahl des Tabellentyps (Generieren von Tabellen)
Ergebnis Stelligkeit entspr. Auswahl Trennung der Felder durch „;“ Tabulator-Trennung Strukturierte Tabelle Ziel Einfache Tabelle Generierung von Tabellen z.B. in Word® Übergabe an Excel® Bericht, Dokumentation

Funktion Formatted table CSV Table TabDelimited Table UserDefinded Table

Die erste Tabellenform ist ausgesprochen einfach und wird nur selten den Ansprüchen einer guten Dokumentation entsprechen. Die CSV-Form hat den Vorteil, dass entsprechende Tabellen in Textverarbeitungsumgebungen durch Konvertieren (z. B. Tabelle|Umwandeln|Text in Tabelle in Word®) in eine „gute Form“ gebracht und verändert werden können. Die Generierung von Tabdelimited Tabellen ist immer dann angezeigt, wenn der Inhalt der Tabelle in Excel® weiter verwendet werden soll, z.B. in der Nutzung von @Risk® bzw. Crystal Ball® oder die Daten in Grafiken umgesetzt werden sollen.

Anhang 3: Technische Dokumentation RefXP Abbildung A3.12 Fenster zur formatierten Anzeige der aktuell referenzierten Datentabelle

23

Während die ersten drei in Tabelle A3.13 dargestellten Funktionen sehr einfach zu bedienen sind, soll auf die nutzerdefinierte Tabellengenerierung etwas vertieft eingegangen werden, da hier eine flexible und definierte Generierungsformulierung erforderlich ist. Abbildung A3.13 zeigt das entsprechende Modulfenster, das zur Generierung von formatierten Tabellen entwickelt wurde. Im oberen linken Fenster werden die verfügbaren Felder angezeigt (Cave: Auch ftMemodefinierte Felder, die nicht ausgegeben werden können, sind in der Anzeige enthalten). Sie können (zur besseren Übersicht) alphabetisch sortiert werden (Sort-Button). Die Bedeutung der Schaltknöpfe in der Mitte ist in Tabelle A3.14 beschrieben. Die ausgewählten Felder werden im Listenfeld in der Mitte aufgelistet, dort können sie bearbeitet werden. Wesentliche Veränderungen sind u.a. das Markieren/Verschieben von Zeilen mit der Wirkung der geänderten Spaltenreihenfolge in der Tabelle, die Löschung/Hinzufügung von Feldern mit der Wirkung der Änderung der Tabelleninhalte, die Änderung des Ausgabeformates und die Änderung des Alias (der Tabellenüberschrift für das Feld). Jede Zeile enthält mindestens den Feldnamen und das Ausgabeformat. Das Ausgabeformat bestimmt die Stelligkeit der Tabellenspalte. Die Formatbeschreibung entspricht in etwa der Sprache Fortran, ein Buchstabe charakterisiert den Datentyp, eine Zahl gibt die Länge insgesamt an. Bei Gleitkommazahlen gibt eine Punkt-Ziffer-Ergänzung die Anzahl der gewünschten Stellen „nach dem Komma1“an - d.h. ein F steht für float (Gleitkomma), ein S steht für scientific (Gleit1

Das Programm RefXP erlaubt keine deutsche Komma-Darstellung in den Daten, um Kompatibilitätsprobleme auszuschließen. Die Sprache sollte, insbesondere im Zustand des Editierens von Daten, in der Windows-

24

Anhang

komma in wissenschaftlicher Notation), ein I steht für integer (Ganzzahl) und ein C steht für character (Buchstaben, Zahlen, andere Symbole). Abbildung A3.13 Fenster zur benutzerdefinierten Generierung von formatierten Datentabellen

Umgebung generell auf Englisch eingestellt werden. Der Programmautor wird keine über die ins Programm aufgenommenen Konvertierungen hinausreichenden Abfangmechanismen programmieren, zumal die Ausgabesprache der Statistikumgebungen (also der Eingansdaten für die Datenbank) eine englischsprachige Punktnotation vorsieht. Eine Mischung der Sprachvarianten auf unterschiedlichen Programmebenen ist fehleranfällig oder erheblich arbeitsaufwendig.

Anhang 3: Technische Dokumentation RefXP Tabelle A3.14 Funktion der Schaltknöpfe: Generierung von formatierten Datentabellen

25

Einfügen des markierten Feldes Übertragen aller Felder Nutzung der Xprob-Standard-Formatierung Laden einer Formatierungsvorschrift Speichern einer Formatierungsvorschrift

Wird für eine Datentabelle ein Format gespeichert, so geschieht dies in der Regel unter dem jeweiligen Dateinamen der gerade angesprochenen Tabelle (mit einer abweichenden Ergänzung des Dateinamens; es wird empfohlen die Formatierung unter ...name.TXT zu speichern. Durch den Button Run wird die Tabellengenerierung angestoßen, ist der Nutzer mit dem Ergebnis zufrieden, kann das Modul über den Button Close/Set verlassen werden; die generierte Tabelle wird an das Hauptprogramm übergeben und erscheint im Fenster der Parameter Tables, von wo es kopiert, gespeichert und bearbeitet werden kann. Obwohl es ein wenig Übung braucht, die spezielle Notation der Tabellengenerierung zu beherrschen, kann mit dem additiven Tool eine brauchbare Dokumentationsgrundlage generiert werden. Das Fenster Parameters of EDF/CDF der Ebene III enthält in vier Unterfenstern alle Angaben zur Anpassung an die General-F-Verteilung, zur besten Anpassung an eine ein- oder zweiparametrische Verteilung, die Momente und ganz rechts die Quantile (empirische, GF-basierte und empfohlene Verteilung). Der Inhalt des zweitgenannten Fensters (Selected Functions) wird aus den Tabellen-Angaben des erstgenannten Fensters (General F Approx.) bei Aufbau des Fensters jeweils rechnerisch neu abgeleitet. Die Angaben zu den Momenten und Quantilen sind in den jeweiligen Datentabellen fest abgelegt.

26

Anhang

Abbildung A3.14 Fenster zur Anzeige der GF- und Verteilungsanpassung

Die Auswahl der jeweiligen Altersgruppe (bzw. des aktuellen Stratums) wird im rechten Fensterbereich angezeigt und kann interaktiv geändert werden (Schalter zur Tabellennavigation). Um die Übersicht zu behalten, wird die jeweilige Aktualisierung in der Statuszeile des Programms (Abbildung A3.15) vorgenommen. Abbildung A3.15 Anzeige der aktuell bearbeiteten Gruppe (Strata)

Das Fenster Formula der Ebene III enthält eine Zusammenstellung der für den ausgewählten Parameter empfohlenen Verteilungsanpassungen (Abbildung A3.16). Die Anzahl der angezeigten Verteilungen kann rechts gewählt werden. Die GF-Anpassung kann von der Anzeige ausgeschlossen werden; dies hat seinen Grund darin, dass aktuell nahezu keine Simulationssoftware Verteilungen dieses Typs verarbeiten kann. Der Button Command/Param. löst eine Neuanzeige aus. Der Inhalt des Anzeigefensters kann direkt ins Clipboard kopiert

Anhang 3: Technische Dokumentation RefXP

27

werden (Button: TableToClipboard), um z.B. begleitend eine Dokumentation der Auswahl zu bearbeiten1. Abbildung A3.16 Fenster zur Anzeige der GF- und Verteilungsanpassung über alle Gruppen

Im Fenster prot/Options der Ebene III wird in Abhängigkeit von der Einstellung des Programms ein Protokoll der Datenzugriffe, der Aufrufstruktur und möglicher Fehlermeldungen erstellt (Abbildung A3.17). Es kann gespeichert werden, um beim Programmautor mögliche Probleme identifizieren und lokalisieren zu können. Die Aktivierung des File Access Prt. protokolliert die Dateiaufrufe, ein aktives Index Generation Prt. protokolliert die Suchindexerstellung, Show Additional Info aktiviert die Öffnung der Restriktionsanzeige auf der Informationsseite. Der Inhalt dieses Fensters wird bei Programmende, sofern nicht explizit gespeichert wird, gelöscht.

1

Die Bedeutung dieser Funktionalität wurde erst im Rahmen der Bearbeitung von Fallstudien deutlich und wurde nachträglich aufgenommen.

28 Abbildung A3.17

Anhang Fenster zur Anzeige des Programmablaufes / Optionen

Soll eine Gesamtdokumentation für den ausgewählten Parameter erstellt werden, so kann diese über das Hauptmenu Report|Documentation(full) angestoßen werden (Abbildung A3.18). Das Ergebnis ist im Report-Fenster der Ebene III einzusehen, zu bearbeiten und zu speichern (RFT-Format s. o.). Abbildung A3.18 Fenster zur Anzeige eines zusammenfassenden Berichtes

Anhang 3: Technische Dokumentation RefXP

29

A3.11 Ebene VI: Anzeigen in der Statusleiste
Obwohl optisch unauffällig und meist kaum wahrgenommen, hat die Statusleiste für den Nutzer eine wesentliche Funktion, sie stellt den aktuellen Zustand des Programms dar und weist in sehr knapper Form auf einige Eigenschaften des aktuellen Datenzugriffs hin. Die Kürzel der Kaptitelüberschrift (Headlines) und des Abschnittes (Topic) werden unten links angezeigt. Abbildung A3.19 Fensterleiste zur Anzeige der aktuellen Position

Dies insbesondere bei Editieren von Daten eine große Hilfe. Im dritten Panel (Abschnitte der Statusleiste) ist die aktuelle relative Dateireferenz angezeigt. Im vierten Panel findet sich die gewählte Gruppe und der für die Datenansicht aktuelle Altersbereich und im rechten Panel die Überschrift des Infofensters.

A3.12 Zusatzmodul: Suchen von Tabelleneinträgen
Mit der wachsenden Anzahl von Einträgen wurde deutlich, dass neben der Cursor-geleiteten Positionierung auf Datensätze eine Suchfunktion, die den Gesamtbestand der Daten nach auszuwählenden Schlagworten durchsucht, benötigt wird. Nach einer Reihe von Versuchen mit unterschiedlichen Ansätzen wurde ein Modul entwickelt, dass zwar nicht allen zwischenzeitlich aufgestellten Anforderungen (dem Ideal einer Thesaurus-basierten Suchmaschine) gerecht wird, aber die wesentlichen Funktionen erfüllt. In Abbildung A3.20 ist die Oberfläche der eingebundenen Suchmaschine dargestellt. Die beim jeweils ersten Aufruf erstellte Tabelle wurde bereits vorgestellt. Aus der Tabelle wird jeweils eine deutsch- und englischsprachige Suchliste generiert, aus der Items als Suchbegriff ausgewählt werden können. Darüber hinaus können auch Suchbegriffe frei in die drei Positivfelder1 und das Ausschlussfeld eingesetzt werden. Als Wildcald-Symbol ist das Zeichen „%“ anzuwenden, es erlaubt die Suche nach vorgegebenen Fragmenten, ist jedoch in der Regel nicht so scharf einschränkend wie ein vollständiger Suchbegriff. Das Wildcardzeichen darf nicht an beliebigen Positionen im Suchbegriff, sondern nur am rechten Rand oder im Kern eines Suchbegriffes verwendet werden2. Die mögliche logische Verknüpfung der positiven Suchbegriffe ist durch ein logisches Und (addi-

1

2

Als Positivfeld wird eine Information bezeichnet, die definitiv als Ganzes oder bei Nutzung der WildCard % in Teilen im Informationsfeld (Feld INFO) vorliegen muss. Ein Negativfeld bestimmt einen Eintrag der im gesamten Informationsfeld nicht vorhanden sein soll. Das Programm verwendet die SQL-konforme Filterung von Memofeldern über die Funktion LIKE.

30

Anhang

tive Einschränkung) oder ein logisches Oder (entweder … oder) oder auch beides) möglich (Abbildung A3.21). Abbildung A3.20 Fenster zur interaktiven Suche von Tabelleneinträgen

Abbildung A3.21

Teilfenster zur Definition der Suchbegriffe

Der Button Find Data löst das Suchereignis aus und stellt die Auswahlfilter für die Informationsseite entsprechend der Auswahl ein. Der Button Clear Search löscht die aktuellen Filtereinträge und setzt die den Anzeigebereich auf die Gesamtmenge der Daten.

Anhang 3: Technische Dokumentation RefXP Abbildung A3.22 Teilfenster zur Navigation in den gefundenen Tabelleneinträgen

31

Im zweiten Bereich (Panel) des Unterprogramms werden, sofern Einträge gefunden werden (Anzeige der Fundstellen in der Mitte), zu dem aktuell positionierten Datensatz die Kürzel (Indizes) angezeigt. Eine Schaltfläche in der Mitte erlaubt das Manövrieren in der Menge der gefundenen Einträge. Sofern zu einer Fundstelle in der Normalansicht „gesprungen“ werden soll, ist dies durch den Pfeil-Punkt-Button auf der rechten Seite möglich (Abbildung A3.22). Das Programm aktualisiert den Positionscursor im Hauptprogramm und schließt das Unterprogramm. Die Suchbegriffe bleiben bis zum Ende der Programmanwendung im Suchprogramm erhalten, bei einem Neuaufruf wird der Positionscursor im Suchprogramm auf den ersten Datensatz zurück gestellt1. Die Suche muss daher jedes Mal nach Aufruf des Suchprogramms wieder ausgelöst werden. Das Editieren des angezeigten Inhaltes ist nicht zugelassen.

A3.13 Quelltext des Programms
Der Autor und die Vertrauensstelle halten eine Kopie des Quelltextes des Programms und der eingebundenen Units. Das Programm ist frei von Drittrechten2, es wurden alleine Eigenentwicklungen und als Freeware gekennzeichnete Programmteile genutzt. Auf Quellen für Ausgangsprogramme, die im Rahmen der Programmentwicklung des Autors für die Programmierumgebung Borland Delphi 7.0® adaptiert und umgeschrieben wurden, wird ebenso wie auf die verwendete Literatur im Anhang hingewiesen.

1

2

Jede andere Realisierung hätte das Anlegen einer Kopie der Daten bzw. der gefundenen Datenmenge erfordert und wurde aus Speicherplatz- und Daten-Integritätsgründen verworfen. Die Wiedergabe von Markennamen, Handelsbezeichnungen und Warennamen usw. berechtigt auch ohne Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann genutzt werden dürften.

32

Anhang

A3.14 Literatur
1. Borland: Delphi. Developer’s Guide. Borland Software Corporation, 2001 2. Cantano, M, Fachon, D.& Hager, H.J.: The Digital Guide To Software Develoment. Digital Equipment Corporation, Digit Press 1989 3. Geisler, F.: Datenbankprogrammierung in Delphi 6. mitp-Verlag, Bonn 2001 4. Ince, D.C.: Software Engineering. Capman and Hall, London 1989 5. Jones, C.A. & Drake,F.L.: Python and XML. O'Reilly Media, Sebastopol/USA 2003 6. Kazakos, W., Schmidt, A. &Tomczyk, P.: Datenbanken und XML. Springer Verlag 2002, Berlin/New York 7. Kosch, A.: Delphi 2.0: Datenbankentwicklung. Franzis Verlag,, Feldkirchen 1996 8. Kosch, A.: ADO und Delphi. Software & Support Verlag, Frankfurt 2002 9. Laurent, S.S. & Fitzgerald, M.: XML Pocket Reference. O’Reilly Media, Sebastopol/ USA 2003 10. Lohninger, H.: Turbo Pascal 7.0 Toolbox. IWT-Verlag, Vaterstetten 1993 11. Kussmaul, T.: Turbo Pascal Toolbox. Te-wi Verlag, München 1991 12. Raasch, J.: Systementwicklung mit strukturierten Methoden.Carl Hanser Verlag, München/Wien 1992 13. Ray, E. T.: Einführung in XML, 1. Auflage 2001, O`Reilly Verlag Köln 14. Redaktion Toolbox (Hrsg.): Datenbanken mit Delphi. C\LComputer&Literatur Verlag, Böblingen 2002 (5.Aufl.) 15. Sauer, H.: Relationale Datenbanken, 5. Aufl., Addison-Wesley Verlag, 2002 16. Westphal, R. & Weyer, C.: ADO.Net. Markt+Technik Verlag, München 2003 17. W3C: Extensible Markup Language (XML). http://www.w3.org/XML/#intro.htm . (20.12.2007) 18. XML : Extensible Markup Language (XML) 1.0 (Fourth Edition) , Tim Bray, Jean Paoli, C. M. Sperberg-McQueen, Eve Maler, and François Yergeau (eds.), W3C (World Wide Web Consortium), 16 August 2006. Available at http://www.w3.org/TR/2006/REC-xml-20060816/.

Anhang 3: Technische Dokumentation RefXP

33

A3.15 Information zum Programm RefXP

Sprache Autor

Borland Delphi Dr. Michael Schümann

Version 7.0 /Release 4.453 /Enterprise Arbeitsgruppe Epidemiologie der BWG und des UKE / Universität Hamburg Seit 15.3.2006: Behörde für Soziales, Gesundheit und Verbraucherschutz, Fachabteilung Umwelt und Gesundheit Michael.Schuemann@bsg.hamburg.de

Version Compilierung

V8.09 XML Main: 1592 Zeilen

Beta test version 28. October 2006 30. Oktober 2006

Status des Freie Nutzung des Copyright 2001-2006: Programmcode Programms EXE-Files ohne Garan- und des GUI tien oder/ und Gewährleistung

Programmstruktur und externe Module
program RefXP; uses Forms, fMain in 'fMain.pas' {Form1}, uConvertPP in 'Converter\uConvertPP.pas' {fConvertPP}, uInfo in 'uInfo.pas' {AboutBox}, uFormATable in 'TabIt\uFormATable.pas' {fFormTab}, uThesau1 in 'Key\uThesau1.pas' {fSearchIndex}, uWhatsOn in 'uWhatsOn.pas' {fWhatsOn};

//Borland Hintergrund //Hauptfenster der Anw. //Konvertieren der GF //Informationsfenster //Formatieren der Tabellen //Suchmaschine //Aufruffenster Suchmaschine

34

Anhang

Externe Units uString OLE_RTFEdit //Prozeduren der Stringverarbeitung //z. T. mit Delphi-Adaptationen aus [10,11] //mit Dank an die Autoren //Unit zur Bearbeitung von RTF-Dateien mit //erweiterten Funktionsumfang mit Dank //Autoren des Ausgangsprogramms: OLERichEdit //Autor: Joe Blocher  //Datum: Jan. 98 //Status: Freeware

Interne Qualitätssicherung und Vertrauensstelle für den Programmcode NLGA/Niedersachsen //Dr. Oliver Hehl

Danksagungen Ohne die anregende Diskussion und Unterstützung durch meine Kolleginnen und Kollegen aus dem Xprob-Konsortium hätte sich die Ausgangsversion nie in das vorliegende Programm verwandelt. Besonderer Dank gilt Claudia Peters, die alle Schritte der Neuentwicklung und Benutzerhandbuch-Entwicklung qualitätssichernd begleitet hat.

A4 Stratifizierung und Verteilungsanpassung mit SAS – Programm-Dokumentation –
Jens Herrmann†, Olaf Mosbach-Schulz

A4.1 Aufbau des SAS-Skriptes
Die Datenauswertung im Xprob-Projekt erfolgte weitestgehend vereinheitlicht mit dem Statistik-Programmpaket „SAS“ Version 8 bzw. 9. Die Programmzeilen sind mit der Endfassung des Projektberichtes dokumentiert und werden zum Zwecke der Qualitätssicherung veröffentlicht. Das Programm führt automatisch eine Stratifizierung nach Geschlecht und der optimalen Alterseinteilung nach dem vom Xprob vorgeschlagenen Schema (vgl. Teil 1, Abschnitt 5.2) aus. Die Geschlechtsstratifizierung kann optional auch unterdrückt werden. Für jedes Stratum werden empirische Kenngrößen (vgl. Teil 1, Abschnitt 5.3), insbesondere Quantile der empirischen Verteilung, berechnet, eine GF-Verteilung mit Punktmasse auf Null (PMZ) (vgl. Teil 1, Abschnitt 5.4), sowie je eine Exponential-, Gamma-, Log-logistische, Lognormal- und Weibull-Verteilungen angepasst. Die Gütebeurteilung und Bestimmung der besten Anpassung („Best fit“) entspricht dem vom Xprob-Projekt vorgeschlagenen Vorgehen (vgl. Teil 1, Abschnitt 5.6). Alle Ergebnisse werden in der vom RefXP-Reader benötigten Form dokumentiert und abgespeichert (vgl. Anhang A2), so dass ein direktes Einlesen in die Datenbank RefXP möglich ist. Die Eingabedaten müssen als Variable in einer SAS-Datei vorliegen. Zur Auswertung werden die SAS-Module: „BASE“, „STAT“ und „IML“ benötigt. Die Programmzeilen sind nur mit Hilfe des Statistik-Programms „SAS“ ab Version 8 ausführbar. Zum Aufruf der Programmzeilen sind Kenntnisse in der Bedienung des Programmpakets „SAS“ notwendig. Da zu erwarten ist, dass sich mit weiteren Anwendungen des Programms Erweiterungen und Verbesserungen ergeben, gibt die im Endbericht dokumentierte Fassung den Stand zum Ende des Projektes wieder. Die aktuellste Version des Programms wird im Internet1 abrufbar sein.

1

http://www.apug.de/risiken/forschungsprojekte/expositionsabschaetzung.htm

1

2

Anhang

A4.2 Eingabe der Steuerbefehle
Am Beginn des Skriptes werden alle notwendigen Steuerbefehle und Eingaben zusammengefasst. Hier müssen alle notwendigen Pfad-, Datei-, Variablennamen und Informationen für einen Datenbankeintrag in RefXP spezifiziert werden. Die Notation folgt der Angabe von „Libraries“ und „Macro variables“ in SAS.
*----------------------------------------------------------------* | Xprob_GFStrata_skript_v20070525 25/05.2007 | *----------------------------------------------------------------* | This script is running under SAS Version 8 or higher | | and needs the modules: BASE, STAT, IML | | | | This Script was used in the Xprob-project | | for internal use only. | | This software has the status of a beta software | | development version and is provided AS IS | | without warranty of any kind, | | either expressed or implied. | | | *----------------------------------------------------------------* | All control sequences are at the beginning of the script. | | Please look for further details, documentation, | | and interpretation of output into the final report | | of the Xprob-project. | | | *----------------------------------------------------------------*; *----------------------------------------------------------------* | Please specify the folder with input data set in SAS format | *----------------------------------------------------------------*; LIBNAME INPUT 'x:\folder\'; *----------------------------------------------------------------* | Please specify the data file in SAS format (only documentation)| *----------------------------------------------------------------*; %LET QUELLDATEI = x:\folder\EFACTOR.sas7bdat; *----------------------------------------------------------------* | Please specify the folder with additional formats | *----------------------------------------------------------------*; LIBNAME LIBRARY 'x:\folder\'; *----------------------------------------------------------------* | Please specify the folder for the output | *----------------------------------------------------------------*; LIBNAME OUTPUT 'x:\folder\'; *----------------------------------------------------------------* | Please specify the name of output file (all observations) | *----------------------------------------------------------------*; %LET AUSGABE = x:\folder\EFACTOR.txt;

Anhang 4: Stratifizierung und Verteilungsanpassung mit SAS
*----------------------------------------------------------------* | Please specify the name of output file (males) | *----------------------------------------------------------------*; %LET AUSGABEMANN = x:\folder\EFACTOR_male.txt; *----------------------------------------------------------------* | Please specify the name of output file (females) | *----------------------------------------------------------------*; %LET AUSGABEFRAU = x:\folder\EFACTOR_female.txt; *----------------------------------------------------------------* | Please specify the folder for data sets in RefXP | *----------------------------------------------------------------*; %LET ZIELVERZ = C:\REFVAL\; *----------------------------------------------------------------* | Please specify the name of the output in RefXP (all obs.) | *----------------------------------------------------------------*; %LET ZIELDAT = DS\HL\TOP\EFACTOR.dbf; *----------------------------------------------------------------* | Please specify the name of the output in RefXP (males) | *----------------------------------------------------------------*; %LET ZIELDATMANN = DS\HL\TOP\EFACTOR.dbf; *----------------------------------------------------------------* | Please specify the name of the output in RefXP (females) | *----------------------------------------------------------------*; %LET ZIELDATFRAU = DS\HL\TOP\EFACTOR.dbf; *----------------------------------------------------------------* | Please specify the options for the printed output | *----------------------------------------------------------------*; OPTIONS LINESIZE=90 PAGESIZE=55 NOCENTER; *----------------------------------------------------------------* | Please specify the input data and relevant variables | *----------------------------------------------------------------*; DATA ROHDATEN (KEEP=SEX AGE EFACTOR EWEIGHT); SET INPUT.dataset; RENAME varname1 =SEX varname2 =AGE varname3 =EFACTOR varname4 =EWEIGHT ; *----------------------------------------------------------------* | Please specify the variablename of exposure factor to analyse | *----------------------------------------------------------------*; %LET ANALYSE = EFACTOR; *----------------------------------------------------------------* | Please describe the exposure factor (with unit) | *----------------------------------------------------------------*; %LET BESCHREIBUNG = XXX CONSUMPTION [g/d];

3

4

Anhang

*----------------------------------------------------------------* | Please specify the name of the exposure factor | *----------------------------------------------------------------*; %LET PARAMGANZ = XXX; *----------------------------------------------------------------* | Please abbriviate the name of the exposure factor (max.6 char.)| *----------------------------------------------------------------*; %LET PARAM = EF; *----------------------------------------------------------------* | Please specify the group (topic) of the exposure factor | *----------------------------------------------------------------*; %LET TOPICGANZ = XXX; *----------------------------------------------------------------* | Please abbriviate the group(topic) of the exposure factor | *----------------------------------------------------------------*; %LET TOPIC = EF; *----------------------------------------------------------------* | Please specify the headline of the exposure factor (see RefXP) | *----------------------------------------------------------------*; %LET HEADLINEGANZ = FOOD CONSUMPTION; *----------------------------------------------------------------* | Please abbriviate the headline of the parameter (see RefXP) | *----------------------------------------------------------------*; %LET HEADLINE = NU; *----------------------------------------------------------------* | Please specify the unit of the exposure factor (see RefXP) | *----------------------------------------------------------------*; %LET UNIT = %STR(g/d); *----------------------------------------------------------------* | Please specify the sample question / item of the factor | *----------------------------------------------------------------*; %LET QUESTION = %STR(mean of 7 consecutive daily food records); *----------------------------------------------------------------* | Please specify the aggregation interval | *----------------------------------------------------------------*; %LET REF_INTERVAL = %STR(seven consecutive days); *----------------------------------------------------------------* | Please specify the aggregation / computation method | *----------------------------------------------------------------*; %LET ALGORITHM = %STR(mean); *----------------------------------------------------------------* | Please specify the sample period of the factor (years) | *----------------------------------------------------------------*; %LET PERIODE = %STR(20## - 20##);

Anhang 4: Stratifizierung und Verteilungsanpassung mit SAS
*----------------------------------------------------------------* | Please specify the data source | *----------------------------------------------------------------*; %LET QUELLE = %STR(Daten); *----------------------------------------------------------------* | Please specify the reference of the data source | *----------------------------------------------------------------*; %LET REFERENCE = %STR(Name [####]); *----------------------------------------------------------------* | Please specify a reference of results (original analysis) | *----------------------------------------------------------------*; %LET PUBLISH = %STR(Name et al. [####]); *----------------------------------------------------------------* | Please specify other references, if existing | *----------------------------------------------------------------*; %LET REPUBLISHED = %STR(Name et al. [####]); *----------------------------------------------------------------* | Please specify the owner of the data source | *----------------------------------------------------------------*; %LET OWNER = %STR(Institution, Department); *----------------------------------------------------------------* | Please specify your institution (analyser) | *----------------------------------------------------------------*; %LET ANALYSER = %STR(Analyser); *----------------------------------------------------------------* | Please describe your analysis | *----------------------------------------------------------------*; %LET ANALYSIS = %STR(Secondary analysis of the puf); *----------------------------------------------------------------* | Please indicate the restrictions in 7-bit code | *----------------------------------------------------------------*; %LET RESTRICTIONS = %STR(0000000); *----------------------------------------------------------------* | Comments | *----------------------------------------------------------------*; %LET COMMENT = %STR(XXXX); *----------------------------------------------------------------* | Additional comments | *----------------------------------------------------------------*; %LET OTHER = %STR(XXXX); *----------------------------------------------------------------* | Keywords (also headline, group, name in German) | *----------------------------------------------------------------*; %LET KEYWORDS = %STR(XXXX);

5

6

Anhang

*----------------------------------------------------------------* | Please specify the variablename of weights | | When data are not weighted, fill in 'NOWEIGHT' | *----------------------------------------------------------------*; %LET WICHTUNG = NOWEIGHT; *----------------------------------------------------------------* | Please specify the variablename of age [in years] | *----------------------------------------------------------------*; %LET ALTER = AGE; *----------------------------------------------------------------* | Please specify the variablename of sex [numeric] | *----------------------------------------------------------------*; %LET GSCHLECHT = SEX; *----------------------------------------------------------------* | Please specify the coding of 'males' | *----------------------------------------------------------------*; %LET MALENUMBER = 1; *----------------------------------------------------------------* | Please specify the coding of 'females' | *----------------------------------------------------------------*; %LET FEMALENUMBER = 2; *----------------------------------------------------------------* | Indicator for stratification of sex: no = 69, yes = 1 | *----------------------------------------------------------------*; %LET WERTSTRAT1 = 1; *----------------------------------------------------------------* | Please specify the header of printed output | | (Title 2 and following are set by the program) | *----------------------------------------------------------------*; PROC CONTENTS DATA=ROHDATEN; TITLE1 'Stratification and Distributional fit'; RUN; *----------------------------------------------------------------* | End of form | *----------------------------------------------------------------*

Anhang 4: Stratifizierung und Verteilungsanpassung mit SAS

7

A4.3

Disclaimer und Copyrights

*----------------------------------------------------------------* | | | DISCLAIMER OF WARRANTY | | | | THE PROGRAMS AND DATA SETS ON THIS DISKETTE | | ARE PROVIDED "AS IS" WITHOUT WARRANTY OF ANY KIND. | | WE MAKE NO WARRANTIES, EXPRESS OR IMPLIED, | | THAT THE PROGRAMS AND DATA ARE FREE OF ERROR, | | OR ARE CONSISTENT WITH ANY PARTICULAR STANDARD | | OF MERCHANTABILITY, OR THAT THEY WILL MEET YOUR REQUIREMENTS | | FOR ANY PARTICULAR APPLICATION. | | | | THEY SHOULD NOT BE RELIED ON FOR SOLVING A PROBLEM | | WHOSE IN-CORRECT SOLUTION COULD RESULT IN INJURY | | TO A PERSON OR LOSS OF PROPERTY. | | IF YOU DO USE THE PROGRAMS OR PROCEDURES | | IN SUCH A MANNER, IT IS AT YOUR OWN RISK. | | | | THE AUTHORS AND PUBLISHER DISCLAIM ALL LIABILITY | | FOR DIRECT, INCIDENTAL, OR CONSEQUENTIAL DAMAGES | | RESULTING FROM YOUR USE OF THE PROGRAMS | | OR PROCEDURES ON THIS SOFTWARE AND DATA COLLECTION. | | | *----------------------------------------------------------------* | (c) Xprob-project 2007 | | Jens Herrmann, Olaf Mosbach-Schulz, Jürgen Timm | | University of Bremen, FB3: Institute of Statistics | | Risk Research, Environment, Health | | P.O.Box 330 440, DE-28334 Bremen, Germany | | | | The project group Xprob | | (AgE/Univ. Hamburg, IfS-RUG/Uni Bremen, | | Fak. Gesundheitswissenschaften Uni Bielefeld, | | lögd NRW Bielefeld), | | the sponsoring institution | | (Umweltbundesamt / Berlin FG 24) | | The mission of the project, | | a list of all project partners and contact addresses | | are documented on the website | | www.riskom.uni-bremen.de/xprob/ | *----------------------------------------------------------------*;

O. Mosbach-Schulz

A5

Verteilungsbasierte Modellierung mit @RISK
Leitfaden zur Umsetzung verteilungsbasierter Modellierungen mit dem Computerprogramm @RISK

Bremen 2006

Dieser Leitfaden ist Teil des Projekts: „Evaluation von Standards und Modellen zur probabilistischen Expositionsabschätzung“ (Xprob) gefördert durch das Umweltbundesamt, Dessau, Förderkennzeichen 202 61 218/02

Autor:

Dr. Olaf Mosbach-Schulz

Risikoforschung Umwelt Gesundheit projektgruppe probabilistische modellierung Universität Bremen FB 03: Institut für Statistik Bibliothekstraße 1, D-28359 Bremen

Haftungsausschluss Alle in diesem Abschnitt enthaltenen Informationen wurden nach bestem Wissen zusammengestellt und mit Sorgfalt getestet. Dennoch sind Fehler nicht ganz auszuschließen. Aus diesem Grund sind die im vorliegenden Buch enthaltenen Informationen mit keiner Verpflichtung oder Garantie irgendeiner Art verbunden. Der Autor übernimmt infolgedessen keine Verantwortung und wird keine daraus folgende oder sonstige Haftung übernehmen, die auf irgendeine Art aus der Benutzung dieser Informationen - oder Teilen davon - entsteht, auch nicht für die Verletzung von Patentrechten, die daraus resultieren können. Ebenso wenig übernimmt der Autor die Gewähr dafür, dass die beschriebenen Verfahren usw. frei von Schutzrechten Dritter sind. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt also auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und MarkenschutzGesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften.

Dieses Werk ist urheberrechtlich geschützt. Alle Rechte, auch die der Übersetzung, des Nachdruckes und der Vervielfältigung des Buches, oder Teilen daraus, vorbehalten.

2

Vorwort zur zweiten Ausgabe
Die erste Ausgabe dieses Leitfadens entstand im Rahmen des Projekts „Wahrscheinlichkeitsrechnung als Hilfsmittel zur Wirkungsabschätzung bei Arbeitnehmern“ (F1824-1826) im Auftrag der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin und ist die schriftliche Ausarbeitung einer zweitägigen Fortbildungsveranstaltung, die im Januar 2004 in Dortmund stattfand. Die Schulung wurde zusammen mit Frau Eva Elmshäuser durchgeführt, die die Fortbildung im Wesentlichen konzipierte und das Curriculum erstellte. Der Leitfaden wurde in der Zwischenzeit weiter ausgearbeitet, erprobt und kann jetzt als eigenständige Anleitung gelten. Dennoch sollte nicht vergessen werden, dass gerade bei der Erprobung einer neuen Software-Umgebung häufig Anfangsschwierigkeiten auftreten, die schneller durch einen persönlichen Rat oder Hinweis überwunden werden können. Dieser Leitfaden kann deshalb nicht die Einführung durch eine erfahrene Kollegin oder einen erfahrenen Kollegen ersetzten. In diesem Sinne sind wir ständig bemüht neue Netzwerke und Diskussionsforen zuinitiieren und würden uns freuen, wenn der vorliegende Text Sie neugierig macht, Sie zu entdeckendem Lernen anregt und Sie bei ihrer Arbeit unterstützt. Wir freuen uns auf den Austausch von Erfahrungen, Ihre Anregungen und Kritik.

Januar 2006

Olaf Mosbach-Schulz

3

4

Leitfaden @RISK

Inhaltsverzeichnis
1 Einleitung................................................................................................ 6 1.1 Hinweise zum Gebrauch des Textes................................................. 8 1.2 Hintergrund verteilungsbasierter Modellierungen.............................. 9 1.2.1 2 Literatur zu verteilungsbasierten Modellierungen ................ 12

Der Aufbau von @RISK ....................................................................... 13 2.1 Der Programmaufruf ....................................................................... 13 2.2 Das erste Hauptfenster: EXCEL-Tabellenblatt ................................ 13 2.2.1 Was Sie über EXCEL wissen müssen.................................. 14 2.2.2 Literatur zu EXCEL............................................................... 19 2.3 Das zweite Hauptfenster: Modellfenster.......................................... 22 2.4 Das dritte Hauptfenster: Ergebnisfenster ........................................ 23 2.5 Speichern und Beenden von @RISK .............................................. 24 2.6 Öffnen bestehender Simulationen................................................... 25

3

Definition des Modells ......................................................................... 26 3.1 Beispiel: Cadmium-Aufnahme durch übliche Nahrung.................... 26 3.1.1 Literatur zur Expositionsmodellierung................................... 28 3.2 Verteilungen .................................................................................... 29 3.2.1 Was Sie über Verteilungen wissen müssen ......................... 30 3.2.2 Was Sie über die Lognormalverteilung wissen müssen ....... 39 3.2.3 Umrechnung der Parameter der GF-Verteilung für Unterverteilungen als Formulartabelle............................. 42 3.2.4 Mischen von Verteilungen .................................................... 50 3.2.5 Punktmasse auf Null (PMZ).................................................. 54 3.3 Modellgleichung .............................................................................. 55

4

Monte-Carlo-Simulationen................................................................... 59 4.1 Was Sie über Simulationen wissen müssen ................................... 59 4.2 Einstellungen................................................................................... 61 4.3 Simulation ....................................................................................... 64 4.4 Literatur zu Simulationen................................................................. 73

Leitfaden @RISK

5

5

Aufbereitung der Ergebnisse .............................................................. 74 5.1 Quick Report ................................................................................... 74 5.2 @RISK-Statistik-Funktionen............................................................ 76 5.3 EXCEL-Grafiken mit ungeordneten Daten ...................................... 81 5.4 EXCEL-Grafiken mit geordneten Daten .......................................... 94 5.5 Literatur zu EXCEL-Grafiken......................................................... 101

6

Verteilungsanpassung....................................................................... 102 6.1 Sammeln von Informationen ......................................................... 103 6.1.1 Theoretische Modellannahmen .......................................... 103 6.1.2 Auswahl empirischer Daten................................................ 105 6.1.3 Nutzung von Expertenurteilen ............................................ 106 6.2 Nicht-parametrische Verteilungen bei großen Datenmengen........ 107 6.2.1 Weitere Interpolationsverfahren ......................................... 117 6.3 Anpassung parametrischer Verteilungen ...................................... 118 6.3.1 Schätzung von Verteilungsparametern............................... 118 6.3.2 Auswahl der besten Verteilung („Best Fit“) ......................... 126 6.4 Verteilungen bei kleinen Stichprobenumfängen ............................ 130 6.5 Mischungen von Verteilungen ....................................................... 133 6.6 Literatur zu Verteilungen ............................................................... 138

7

Sensitivitätsanalyse........................................................................... 140 7.1 Was Sie über Sensitivitätsanalysen wissen müssen..................... 140 7.2 Globale Sensitivitätsmaße............................................................. 141 7.3 Lokale Sensitivitätsmaße .............................................................. 143 7.3.1 Gauß’sche Fehlerrechnung ................................................ 144 7.3.2 Gemittelter Varianzformel................................................... 147 7.4 Literatur zur Sensitivitätsanalyse................................................... 149

8 9

Literaturverzeichnis ........................................................................... 150 Verzeichnis wichtiger Schalter ......................................................... 152

Anhang: Ausdrucke der Beispielprogramme ............................................. 157

6

Leitfaden @RISK

1 Einleitung

@RISK ist ein Computerprogramm zur Durchführung von Simulationen und Risikoanalysen. Es bedient sich dabei des bekannten Tabellenkalkulationsprogramms Microsoft EXCEL und ergänzt dieses um zusätzliche Funktionen. Mit Hilfe von @RISK können Sie nach einer ersten Einarbeitung verteilungsbasierte Modellierungen einfach handhabbar durchführen. Der vorliegende Leitfaden soll Sie in die Besonderheiten und Funktionen von @RISK einführen. Er orientiert sich dabei am Ablauf einer einfachen verteilungsbasierten Expositionsmodellierung und erläutert alle notwendigen Schritte von der Eingabe bis zur abschließenden Dokumentation der Ergebnisse. Damit besitzen Sie die Grundlage, um auch kompliziertere Modelle berechnen zu können. Im Kapitel 2 (Seite 13) wird zunächst ein Überblick über das Programm und seinen Aufbau gegeben. In Kapitel 3 (Seite 26) erfolgt dann die Eingabe der notwendigen Befehle für die Definition eines Modells. Es folgt die Durchführung der Simulation in Kapitel 4 (Seite 59) und die Aufbereitung der Ergebnisse in Kapitel 5 (Seite 74). Der Leitfaden umfasst noch zwei ergänzende Themen, die über eine erste Anwendung hinausgehen. Im Kapitel 6 (Seite 102) sollen verschiedene Verfahren vorgestellt werden, wie Verteilungen an empirische Daten angepasst werden können. Das abschließende Kapitel 7 (Seite 140) zeigt die Durchführung einer Sensitivitätsanalyse.

Leitfaden @RISK

7

k

Zum Programm @RISK wurden vom Hersteller ebenfalls Dokumentationen herausgegeben: [@RISK 4.0 dt.] Benutzerhandbuch @RISK – Risikoanalysen- und Simulations- Add-In für Microsoft Excel, Version 4. Newfield: Palisade Corporation, März 2001. [@RISK 4.5] Guide to Using @RISK – Risk Analysis and Simulation Add-In for Microsoft Excel, Version 4.5. Newfield: Palisade Corporation, February 2002.

Die jeweils aktuelle Version des Programms und des Benutzerhandbuchs finden Sie im Internet unter: www.palisade-europe.com. Palisade Corporation 31 Decker Road, Newfield, NY USA 14867 e-Mail: sales@palisade.com Hier können Sie auch eine kostenlose Probeversion herunterladen. Die Beispiele im Leitfaden beziehen sich auf @RISK Version 4.5.2 professional edition, Stand Dezember 2003. Weitere Literaturhinweise finden Sie in den einzelnen Kapiteln und im Literaturverzeichnis am Schluss des Leitfadens.

8

Leitfaden @RISK

1.1 Hinweise zum Gebrauch des Textes

Liebe Leserin, lieber Leser, der vorliegende Leitfaden soll Sie während Ihrer ersten Erfahrungen mit dem Simulationsprogramm @RISK begleiten. Der Aufbau des Textes folgt dabei einer einfachen verteilungsbasierten Expositionsmodellierung mit Expositionsfaktoren aus dem Xprob-Projekt. Wir empfehlen Ihnen deshalb, den Text parallel zu Ihrer ersten Programmierung einmal vollständig zu lesen. Ihr „Begleiter“ soll Ihnen weitere Orientierung geben:

k y x Q d

Am Ende jedes Kapitels finden Sie Literaturhinweise auf weiterführende Handbücher, in denen Sie Antworten auf spezielle Problemstellungen und Fragen finden, die wir in dieser ersten Einführung nicht behandeln konnten.

Einzelne Themen werden aber auch im Leitfaden später wieder aufgegriffen, so dass Sie bei Interesse ruhig vorblättern sollten.

Einige Begriffe und Vorgehensweisen werden nur verständlich, wenn Sie mit einigen Themen schon vorher vertraut sind. Wir haben diese Grundlagen in Einschüben zusammengefasst. Überspringen Sie die Blöcke, wenn Sie sich sicher fühlen oder wenn Sie sich zunächst nur einen Überblick über @RISK verschaffen möchten.

Wie auf jedem Gebiet gibt es auch bei @RISK Fallstricke, die häufig Anlass zu Verwirrung und Unklarheit geben. Wir haben diese gekennzeichnet, damit Sie den Tücken ausweichen können.

Tipp: Schließlich möchten wir Ihnen auf Grund unserer Erfahrungen mit @RISK einige Arbeitsweisen besonders empfehlen.

Wir freuen uns auf Ihre Kommentare und Anregungen und Wünschen Ihnen eine erfolgreiche Arbeit mit dem Simulationsprogramm @RISK.

Leitfaden @RISK

9

1.2 Hintergrund verteilungsbasierter Modellierungen Ein wesentliches Problem der quantitativen Expositionsabschätzung liegt in der Festlegung der Eingangsgrößen auf bestimmte Zahlenwerte. Die Konzentration eines Schadstoffes, die in einem Kontaktmedium gemessen wurde, hängt von den konkreten Randbedingungen ab und variiert mit der Zeit, dem Ort oder dem Produkt. Aber auch die Aufnahme durch das Individuum, die Kontakthäufigkeit, -intensität und dauer unterscheidet sich innerhalb einer Population. Somit sind die Einflussgrößen keine konstanten Werte, wie uns „Punktschätzer“ vortäuschen. Um die vorhandene Komplexität dennoch in quantitativen Modellen behandeln zu können, wurden verschiedene Strategien zur Reduktion entwickelt. Dazu zählt der Übergang zu durchschnittlichen Werten, die eine durchschnittliche Situation beschreiben, das Betrachten von möglichen, ungünstigen Werten, die extreme Situationen abschätzen, oder die Betrachtung von konkreten Einzelfällen. In jedem Fall wird die vorhandene Variabilität auf eine ausgewählte Konstante reduziert. Keine dieser Herangehensweisen ist vollständig befriedigend, da sie die in den Größen vorhandene Variabilität nicht berücksichtigt und nur Spezialfälle betrachtet. Gleichzeitig sind die Ursachen, die die Festlegung auf einen konstanten Wert verhindern, sehr verschieden. Man beobachtet prinzipielle Ungleichheiten zwischen Kontaktmedien, Anwendungen und Personengruppen, Veränderlichkeit in Raum und Zeit oder Ungewissheit in der Messung einer konkreten Größe. In der Literatur werden hauptsächlich drei Typen von Variabilität unterschieden, die jeweils spezielle Konzepte in der Modellierung nach sich ziehen:

Art Verschiedenheit

Form Unterschiede zwischen den Medien, Szenarien oder Personengruppen Reale Unterschiede in Zeit, Raum, interoder intraindividuell Begrenztes Wissen, Ungenauigkeiten in Datenlage und Kenntnisstand

Methode Abschichtung

Variation

Probabilistische Modellierung Probabilistische Sensitivitätsrechnung

Unsicherheit

Unter Verschiedenheit werden reale Unterschiede zwischen Medien, Szenarien oder Teilen der Population verstanden, die zu einer abgeschichteten Modellierung für verschiedene Spezialfälle führen (z. B. Exposition durch die Umwelt, Verbraucherpro-

10

Leitfaden @RISK

dukte oder am Arbeitsplatz, Unterschiede zwischen Frauen und Männer, jung und alt). Die Abschichtung setzt dabei voraus, dass die Unterschiede bekannt sind und erhoben werden konnten. Im Gegensatz dazu fasst die Variation reale Unterschiede zusammen, die nicht explizit im Modell aufgenommen, aber berücksichtigt werden sollen. So existieren reale Unterschiede in der Population aus regionalen Gegebenheiten, dem Jahresverlauf oder individuellen Verhaltensweisen, ohne dass für jedes Bundesland, jeden Monat und jede Person ein individuelles Modell erstellt werden soll. In der Regel liegen ja gerade keine spezifischen Informationen für eine einzelne Person vor, so dass aus der Variation in der Bevölkerung und die Rahmenbedingungen auf den Spezialfall geschlossen werden soll. Die Unsicherheit umfasst schließlich den Teil der Variabilität, der durch unvollständige empirische Datengrundlagen entsteht und zumindest prinzipiell durch vermehrtes Wissen reduziert werden könnte. Zur besseren Unterscheidung von Variation und Unsicherheit empfehlen Morgan und Henrion [1990] den „Clarity-Test“. Dieser bezeichnet ein Gedanken-Experiment, bei dem unter der Annahme vollständigen Wissens die im Modell vorkommende Größe beschrieben werden soll. Zu benennen sind dabei sämtliche Rahmenbedingungen, die zur exakten Fixierung der Größe notwendig sind, damit ihr eindeutiger Wert zumindest prinzipiell (unter der Annahme vollständigen Wissens) geklärt werden kann. Die existierende Ungenauigkeit bei der Bestimmung der so fixierten Größe bildet die Unsicherheit. Die Zusammenfassung möglicher Rahmenbedingungen bildet die Grundgesamtheit im Modell, die verschiedenen Ausprägungen der Größe sind damit ihre Variation. Verteilungsbasierte Modelle beschreiben Größen unter unpräzisen Rahmenbedingungen durch ihre mathematische Verteilung in der Grundgesamtheit aller Rahmenbedingungen. Im Gegensatz zum Ansatz mit Punktschätzern soll diese Komplexität nicht reduziert werden, sondern in allen Berechnungen im Modell berücksichtigt werden. Die moderne Computertechnik mit ihrer großen Rechenkapazität ermöglicht eine solche Herangehensweise. An Stelle das Modell nur ein einziges Mal mit den Punktschätzern auszuwerten, werden bei der verteilungsbasierten Modellierung in einer Simulationsrechnung (Monte-Carlo-Simulation) mehrere Tausend Replikationen möglicher Kombinationen von Eingangswerten erzeugt und im Modell verknüpft. Dadurch ergibt sich im Rechner ein Abbild der Verteilung der Zielgröße, das näher untersucht und beschrieben werden kann. Das Computerprogramm @RISK ist ein solches Werkzeug zur verteilungsbasierten Modellierung. Jede Eingangsgröße kann dabei als Verteilung definiert werden und fließt als solche automatisch in die Modellierung ein.

Leitfaden @RISK

11

Modellierung mit Punktschätzern
Effektive Dosis, Extrapolationsfaktoren

Verteilungsbasierte Modellierung
Effektive Dosis, Extrapolationsfaktoren

Modell

Modell

Ergebnis: Referenzwert

Ergebnis: Referenzwert

Der vorliegende Leitfaden beschreibt im Wesentlichen die Durchführung einer verteilungsbasierten Modellierung, d. h. die Definition, Ausführung und Auswertung einer Simulationsrechnung mit dem Programm @RISK. Damit beschränkt sich der Leitfaden auf die eher technischen Aspekte. Im Vorfeld einer Simulationsrechnung sollten vorhandene Datenquellen, die zu verwendenden Modellansätze und mögliche Abschichtungen diskutiert und festgelegt werden. Im Nachgang sind die Quellen von Unsicherheit in der Modellierung zu diskutieren und mit der Modellsensitivität zu vergleichen, um zu einer Beurteilung der Unsicherheit des Endergebnisses zu kommen.

1.Schritt: Abschichtung • • Definition von Szenario, Abschichtungen, Schutzziel, Datenquellen und Modell Abschätzung mittels durchschnittlicher und konservativer Annahmen

2.Schritt: Probabilistische Modellierung • • • • Anpassung der Eingangsverteilungen Implementation des Monte-Carlo-Algorithmus Durchführung der Simulation Darstellung der Ergebnisverteilung

3.Schritt: Probabilistische Sensitivitätsanalyse • • Diskussion möglicher Quellen von Unsicherheit Durchführung der Sensitivitätsanalyse

12

Leitfaden @RISK

k

1.2.1 Literatur zur verteilungsbasierten Modellierung: [Bedford, Cooke 2001] Tim Bedford, Roger Cooke: Probabilistic Risk Analysis Foundations and Methods. Cambridge: University Press, 2001. [Cox 2001] Louis A. Cox: Risk Analysis – Foundations, Models and Methods. Dordrecht: Kluwer, 2001. [Cullen, Frey 1999] Alison C. Cullen, H. Christopher Frey: Probabilistic Techniques in Exposure Assessment – A Handbook for Dealing with Variability and Uncertainty in Models and Inputs. New York: Plenum, 1999. [Morgan, Henrion 1990] Millett Granger Morgan, Max Henrion: Uncertainty – A Guide to Dealing with Uncertainty in Quantitative Risk and Policy Analysis. Cambridge: University Press, 1990. [Vose 2000] David Vose: Quantitative Risk Analysis – A Guide to Monte Carlo Simulation Modelling, 2nd edition. New York: Wiley, 2000.

Leitfaden @RISK

13

2 Der Aufbau von @RISK
2.1 Der Programmaufruf Sie starten das Programm indem Sie das Programmsymbol doppelt anklicken:

oder im Startmenu unter „Programme“ im Unterpunkt „Palisade Decision Tools“ das Programm „@RISK 4.5 for Excel“ aufrufen. Ihr Rechner startet daraufhin das Tabellenkalkulationsprogramm EXCEL mit den Zusatzfunktionen von @RISK.

2.2 Das erste Hauptfenster: EXCEL-Tabellenblatt Auf den ersten Blick sind kaum Unterschiede zum normalen Erscheinungsbild von EXCEL zu erkennen, da das erste Hauptfenster von @RISK eine EXCEL-Tabelle in einer sogenannten Arbeitsmappe ist:

Aktive Zelle

Bearbeitungszeile

Spalten Zeilen

Arbeitsblätter: Tabellen, Diagramme

Rollbalken

14

Leitfaden @RISK

x

2.2.1 Was Sie über EXCEL wissen müssen... Mit EXCEL können Sie Informationen in Tabellen und Diagrammen zusammenstellen und bearbeiten. Diese Blätter sind in EXCEL in einer Arbeitsmappe zusammengefasst. Durch Anklicken mit dem Mauszeiger (Pfeil) können Sie am unteren linken Rand die verschiedenen Inhalte der Arbeitsmappe aufrufen. Drücken Sie dabei die rechte Maustaste erscheint ein Kontextmenü, mit Hilfe dessen Sie einzelne Blätter löschen, umbenennen oder kopieren können. Eine EXCEL-Tabelle besteht aus Zellen in Spalten und Zeilen. Die Spalten werden mit den Buchstaben A, B, C, ..., Z, AA, AB, AC, ..., die Zeilen mit den Zahlen 1, 2, 3, ... bezeichnet. Jede Zelle kann durch Angabe ihrer Koordinaten (Spalte und Zeile) identifiziert werden. Der Name „A1“ bezeichnet die Zelle in der Spalte „A“ und in der Zeile „1“. Ein solcher Name wird auch Bezug genannt. Bezüge sind auch auf andere Tabellen der gleichen Arbeitsmappe möglich. In diesem Fall muss der Name der Zelle der Name der Tabelle mit einem Ausrufungszeichen „!“ vorangestellt werden, z. B. „Tabelle1!A1“. Durch Anklicken einer Zelle mit dem Mauszeiger (Kreuz) wird diese für Eingaben aktiviert. Die jeweils aktive Zelle ist stark umrandet, ihr Name erscheint links neben der Bearbeitungszeile. Mit Hilfe der Rollbalken können Sie zu den nicht sichtbaren Teilen der Tabelle gelangen. Eingaben erfolgen direkt in der aktivierten Zelle oder in der Bearbeitungszeile. Beenden Sie Ihre Eingabe durch Anklicken des grünen Hakens neben der Bearbeitungszeile.

Der Inhalt einer Zelle kann aus Text (alphanumerischen Zeichen), einer Zeitangabe (Datum, Uhrzeit) oder einer Zahl bestehen. In der Regel erkennt das Programm selbständig, um welche Eingabe es sich in der Zelle handelt. Die sichtbare Darstellung des Inhalts können Sie unter dem Menupunkt „Format“ im Unterpunkt „Zellen ...“ festlegen. Im Dialogfeld „Zellen formatieren“ legen Sie bitte dazu zunächst auf der Registerkarte „Zahlen“ die Kategorie (Text, Zahl, Datum,...) des Inhalts fest. Die Voreinstellung „Standard“ wählt eine passende Darstellung zur jeweiligen Kategorie, die EXCEL automatisch erkannt hat.

d

Tipp: Dokumentieren Sie Ihre gesamte Auswertung in der EXCELArbeitsmappe. Eine geeignete Formatierung ermöglicht Ihnen während der Auswertung die Erstellung eines druckfertigen Berichts. Zum gemeinsamen Bearbeiten mehrerer zusammenhängender Zellen, Spalten und Zeilen können Sie bei gedrückter linker Maustaste

Leitfaden @RISK

15

diese mit dem Mauszeiger überfahren. Starten Sie in einer Zelle oder einer Spalten- bzw. Zeilenbezeichnung und erweitern Sie den markierten Bereich bis zur gewünschten Größe. Der Bereich ist wieder stark umrandet. Zusammenhängende Tabellenzellen erhalten Namen mit Doppelpunkt „:“. Der Bereich „A1:A5“ umfasst in Spalte „A“ die Zeilen von „1“ bis „5“, der Bereich „A1:E1“ umfasst in Zeile „1“ die Spalten von „A“ bis „E“. Schließlich werden mit „B2:D4“ alle Zellen zusammengefasst, die in Spalte „B“ bis „D“ und Zeile „2“ bis „4“ liegen.

Der größte Vorteil eines Tabellenkalkulationsprogramms, wie EXCEL, besteht darin, dass einzelne Zellen auch Berechnungen mit Werten aus anderen Zellen enthalten können. Dazu schreiben Sie einfach eine Berechnungsformel in die entsprechende Zelle. In der Zelle wird anschließend das Ergebnis der Berechnung sichtbar. Bei Änderungen der Eingangswerte erfolgt automatisch eine Neuberechnung. Um eine Berechnungsformel einzugeben, beginnen Sie mit einem Gleichheitszeichen „=“. Einfache Formeln folgen der Konvention von Taschenrechnern.

Weitere Funktionen

16

Leitfaden @RISK

mit
Rechenart Addition Subtraktion Multiplikation Division Potenzieren Klammern Eingabesymbol + – * / ^ ( ( ( ... ) ) )

EXCEL bietet Ihnen aber auch eine reiche Auswahl von Funktionen für verschiedene Anwendungen. Im Auswahlfeld links neben der Bearbeitungszeile können „Weitere Funktionen...“ aufgerufen werden. Es erscheint das Dialogfeld „Funktion einfügen“.

Nach der Auswahl der Funktion öffnet sich der Funktionsassistent und es erfolgt die Abfrage der Argumente.

Leitfaden @RISK

17

Geben Sie hier die notwendigen Argumente als Zahl oder Zellennamen ein. Durch Anklicken des Auswahl-Icons kann der Tabellenbereich auch direkt in der EXCEL-Tabelle markiert und übernommen werden:

Der Übernahme-Icon ein.

fügt den markierten Bereich in die Formel

Mit Hilfe von @RISK sind zusätzliche Funktionen zur Definition und Auswertung von Verteilungen hinzugekommen. Diese werden in Kapitel 5.2 (Seite 75) näher vorgestellt. Eine Besonderheit bildet das Kopieren von Zelleninhalten. Sie können dazu eine einzelne Zelle oder einen Bereich markieren und im Menüpunkt „Bearbeiten“ mit Hilfe des Unterpunkts „Kopieren“ zwischenspeichern. Schneller geht dies auch mit dem Kopier-Icon . Die entsprechenden Zellen sind jetzt gestrichelt umrandet. Markieren Sie den Zielbereich und klicken auf den Unterpunkt „Einfügen“ bzw. den Einfüge-Icon um den Inhalt in die Zielzellen einzufügen. Haben Sie dabei eine Formel mit Bezügen auf andere Zellen kopiert, so werden diese relativ zur Zielzelle eingefügt. Die oben definierte einfache Berechnung wird also als Addition der Zellen drei Zeilen und zwei Zeilen oberhalb der Formel interpretiert und so kopiert.

18

Leitfaden @RISK

Möchten Sie hingegen in einer Formel eine feste sich nicht verändernde Zelle benutzen, so müssen Sie einen absoluten Bezug definieren. Dies geschieht durch Voranstellen eines Dollarzeichen „$“ vor die Spalten- und/oder Zeilenbezeichnung. Die Formel „=$B$3+$B$4“ addiert die Zellen „B3“ und „B4“ und wird beim Kopieren nicht verändert. Sie können relative und absolute Bezüge in Formeln und sogar Zellen auch gleichzeitig verwenden, z. B. „$B3“.

Schließlich können Sie auch nur das aktuelle Ergebnis der Berechnung aus einer Formel einfügen. Die geschieht im Menüpunkt „Bearbeiten“ beim Unterpunkt „Inhalte einfügen“. Im Dialogfeld „Inhalte einfügen“ wählen Sie den Punkt „Werte“ aus. Zum Ausdruck der Tabelle gehen Sie im Menüpunkt „Datei“ zum Unterpunkt „Drucken“ oder klicken auf den Druck-Icon . Den Druckbereich und die Seitenumbrüche können Sie einfach unter dem Menüpunkt „Ansicht“ Unterpunkt „Seitenumbruchvorschau“ einstellen.

Leitfaden @RISK

19

Zur Normalansicht gelangen Sie unter dem Menüpunkt „Ansicht“ Unterpunkt „Normal“ zurück. Schließlich können Sie die EXCEL-Arbeitsmappe unter dem Menüpunkt „Datei“, Unterpunkt „Speichern unter...“ auf Ihrem Rechner abspeichern. Wählen Sie hier den Dateityp „Microsoft ExcelArbeitsmappe (*.xls)“ und einen sprechenden Namen. Ein späterer Aufruf ist dann unter dem Menüpunkt „Datei“, Unterpunkt „Öffnen...“ möglich. Tipp: Benutzen Sie vorhandene Arbeitsmappen zu ähnlichen Problemstellungen und führen darin nur noch die notwendigen Ergänzungen und Veränderungen durch. Bei sich häufig wiederholenden Problemstellungen lohnt sich schnell die Entwicklung einer Formulartabelle, in der die zu verändernden Zellen speziell farblich markiert sind.

d k y

2.2.2 Literatur zu EXCEL: [Frye 2001] Curtis Frye: Microsoft Excel 2002 – Schritt für Schritt. Microsoft Press, 2001. [Monka, Voß 2002] Michael Monka, Werner Voß: Statistik am PC – Lösungen mit Excel, 3. überarbeitete und aktualisierte Auflage. München: Hanser, 2002.

Wichtige Schalter (Icons) Auswahl aus EXCEL-Tabellenblatt Übernahme in Formel-Definition Kopieren in EXCEL Einfügen In EXCEL Drucken des EXCEL-Tabellenblatts Speichern des EXCEL-Tabellenblatts Seite 17 Seite 17 Seite 17 Seite 17 Seite 18 Seite 19, 24

20

Leitfaden @RISK

Sie können diese EXCEL-Arbeitsmappe wie gewohnt benutzen und abspeichern. Sie enthält alle Informationen zu Ihrer Problemstellung, inklusive der Formeln für das Modell und die zu definierenden Verteilungen. Dies ist unser Beispiel:

Das Programm @RISK hat EXCEL allerdings eine zusätzliche Symbolleiste hinzugefügt:

Leitfaden @RISK

21

y

Wichtige Schalter (Icons) Aufruf des 1. Hauptfenster: EXCEL-Tabellenblatt Aufruf des 2. Hauptfensters: Modellfenster Aufruf des 3. Hauptfensters: Ergebnisfenster Definition einer Verteilung Definition einer Ergebnisverteilung Anzeigen von Eingangs- und Ergebnisverteilungen Markieren der @RISK-Funktionen im EXCEL-Tabellenblatt Einstellungen der Simulation Starten der Simulation Kapitel 2.2 Seite 14 Kapitel 2.3 Seite 22 Kapitel 2.4 Seite 23 Seite 29 Seite 55 Seite 56 Seite 57 Kapitel 4.2 Seite 61 Seite 63

Die letzten zwei Icons verweisen auf die weiteren Hauptfenster von @RISK: das Modellfenster

y

und das Ergebnisfenster. Die notwendigen Eingaben im EXCEL-Tabellenblatt werden anschließend in Kapitel 3 (Seite 26) erläutert.

22

Leitfaden @RISK

2.3 Das zweite Hauptfenster: Modellfenster

In diesem Fenster protokolliert @RISK das verteilungsbasierte Modell, welches im EXCEL-Tabellenblatt definiert ist. Am Anfang enthält dieses Fenster noch keine Informationen, da noch keine Modellspezifikationen in @RISK vorliegen. Liegt ein Modell vor, erfolgt im Modellfenster je eine tabellarische Zusammenstellung über alle Eingangsverteilungen („Inputs“) und die Zielgrößen („Outputs“). Veränderungen im bestehenden Modell können auch hier eingegeben werden.

Zelle in der EXCEL-Tabelle t il

Eingangsverteilungen

Über den EXCEL-Icon

gelangen Sie zurück zum Tabellenblatt.

Leitfaden @RISK

23

2.4 Das dritte Hauptfenster: Ergebnisfenster

Das Ergebnisfenster ist zunächst auch leer. Nach dem Durchlauf einer Simulation können hier alle Informationen zur Konvergenz („Convergence Monitor“), den einzelnen simulierten Verteilungen („Summary statistics“) und die simulierten Daten („Data“) aufgerufen werden. In Kapitel 4 wird die Interpretation der Ergebnisdarstellungen näher erläutert.

Konvergenz Verteilungen Daten

Über den EXCEL-Icon

gelangen Sie auch von hier zurück zum Tabellenblatt.

24

Leitfaden @RISK

2.5 Speichern und Beenden von @RISK Eine @RISK-Anwendung besteht also aus zwei Teilen. Die Befehle und Eingaben, die in der EXCEL-Tabelle protokolliert werden und der Simulation, die @RISK im Ergebnisfenster anzeigt.

Q

Sie müssen beide Teile einzeln abspeichern. Am besten beginnen Sie damit, Ihre Eingaben im EXCEL-Tabellenblatt abzuspeichern, sobald Sie ihr Modell definiert haben. Rufen Sie dazu im Menupnkt „Datei“ den Unterpunkt „Speichern unter…“ auf und wählen ein passendes Verzeichnis und einen sprechenden Dateinamen. Als Dateityp sollten Sie die „Microsoft Excel-Arbeitsmappe (*.xls)“ wählen.

Haben Sie schon zuvor den Dateinamen festgelegt, so reicht zum erneuten speichern der Unterpunkt „Speichern“ oder das Anklicken des Speichern-Icons .

Wenn Sie mit den Ergebnissen Ihrer Simulation einverstanden sind, müssen Sie diese Daten extra abspeichen. Dazu dient auf der @RISK. @RISK schlägt Symbolleiste der spezielle „Save @RISK file“-Icon Ihnen als Speicherort und Dateinamen, die Angaben der EXCEL-Datei, allerdings mit der Dateiendung „*.rsk“, vor. Tipp: Wenn Sie nicht zu einem Problem zwei unterschiedliche Simulationen speichern möchten, folgen Sie diesem Vorschlag. @RISK wird Sie dann beim Öffnen der EXCEL-Datei automatisch zum Öffnen der @RISK-Datei auffordern.

d

Sie beenden @RISK durch Anklicken des Menüpunkts „Datei“, Unterpunkt „Beenden“ in der EXCEL-Arbeitsmappe.

Leitfaden @RISK

25

2.6 Öffnen bestehender Simulationen Sie öffnen eine bestehende Simulation durch Aufrufen der zugehörigen EXCELArbeitsmappe unter Menüpunkt „Datei“, Unterpunkt „Öffnen ...“. Befindet sich im gleichen Ordner eine @RISK-Datei mit gleichem Namen, fragt das Programm Sie, ob diese Simulation ebenfalls geöffnet werden soll?

Ist Ihre Simulation unter einem anderen Namen gespeichert und möchten Sie eine andere Simulation öffnen, klicken Sie auf den „Open @RISK File“-Icon .

26

Leitfaden @RISK

3. Definition des Modells
3.1 Beispiel: Cadmium-Aufnahme durch übliche Nahrung Im Xprob-Projekt „Evaluation von Standards und Modellen zur probabilistischen Expositionsabschätzung“ wurde ein verteilungsbasiertes Modell zur CadmiumExposition beim Leben auf einer Altlast entwickelt. Ein Expositionsmedium ist dabei die übliche, gekaufte Nahrung. In der folgenden Modellgleichung wird der Eigenanbau von Obst und Gemüse nicht berücksichtig und es ergibt sich:

ADDres =

C ⋅ IU ⋅ R BW

mit

ADDres C IU R BW

Resorbierte Cadmiummenge bezogen auf Körpergewicht und Tag [ng] Konzentration von Cadmium in der Nahrung [ng/g] Gesamtaufnahmemenge Nahrung pro Tag [g/d] Resorptionsrate von Cadmium bei oraler Aufnahme [-] Körpergewicht [kg]

Weiter sollen nur männliche Jugendliche im Alter zwischen 14 und 15 Jahren betrachtet werden. Es ist damit klar, dass dieses Modell stark vereinfacht wurde. Tatsächlich erfolgt die Erweiterung um zusätzliche Expositionsmedien und Altersabschnitte aber einfach durch eine Summation. Alle wichtigen Modellierungsschritte können schon an diesem einfachen Beispiel erklärt werden. Im ersten Schritt muss für jede der Eingangsgrößen des Modells eine Verteilung näher definiert werden. Dabei setzt sich das Modell aus vier Eingangsgrößen zusammen: 1. C: 2. IU: 3. R: 4. BW: Konzentration von Cadmium in der Nahrung [ng/g] Gesamtaufnahmemenge Nahrung pro Tag [g/d] Resorptionsrate von Cadmium bei oraler Aufnahme [-] Körpergewicht [kg]

Leitfaden @RISK

27

Im Leitfaden sollen die notwendigen Eingaben an einem konkreten Beispiel erläutert werden. Dazu dient das Beispiel „Cadmiumaufnahme durch die Nahrung bei 14-15jährigen, männlichen Jugendlichen. Die nachfolgende Tabelle gibt die zugehörigen Eingangsgrößen mit ihren Begründungen zur Festlegung wieder:

Eingangsgröße C IU R

Kriterium der Festlegung Literaturdaten: 3-5 Nationale Verzehrsstudie (NVS1985-89), keine Stratifizierung der Altersgruppe Literaturdatum: 0.05 mit zusätzlicher Streuung Nationale Verzehrsstudie (NVS1985-89), Stratifizierung in Jahresklassen: Anteil 14-jährige: 51.9% Anteil 15-jährige: 48.1% in der Teil-Population Einheitenumrechnung

Verteilung Stetige Gleichverteilung Log-Normalverteilung Dreiecksverteilung

Parameter Min = 3 Max = 5 μ= 7.621 σ=0.2939 Min = 0.04 Modus = 0.05 Max = 0.06 14-jährige: α = 28.81 β = 1.972 15-jährige: α = 39.89 β = 1.561

BW

Gammaverteilungen

Konstante

1

Weitere Erläuterungen finden sich im Abschlussbericht, Teil 2, Kap.1 [Okken, Mekel 2005].

d

Tipp: Zur Kontrolle der Vollständigkeit aller Daten ist es vorteilhaft, die bisherige Modellformel mit den Eingabewerten zu verknüpfen, wie dies z. B. grafisch durch eine Skizze erfolgen kann:

ADDres =

C ⋅ IU ⋅ R BW

Die oberen Grafiken können Sie aus dem Definitionsfenster von @RISK kopieren. (Seite 29)

28

Leitfaden @RISK

k

3.1.1 Literatur zur Expositionsmodellierung: [Cullen, Frey 1999] Alison C. Cullen, H. Christopher Frey: Probabilistic Techniques in Exposure Assessment – A Handbook for Dealing with Variability and Uncertainty in Models and Inputs. New York: Plenum, 1999. [Kroes et al. 2002] R. Kroes et al.:Assessment of intake from the diet. Food and Chemical Toxicology 40(2002), 327-385. [Okken, Mekel 2005] P. Okken, O. Mekel: Szenario „Leben auf einer Altlast“. Xprob-Abschlussbericht, Teil 2, Kapitel 1. Bielefeld: 2005.

Leitfaden @RISK

29

3.2 Verteilungen

Das besondere an dieser Art der Modellierung ist also, dass die Eingangsgrößen im Modell durch mathematische Verteilungen beschrieben werden.

Das Programm @RISK erlaubt nun einer Zelle auf dem EXCEL-Arbeitsblatt ebenfalls eine Verteilung zuzuordnen. Dazu wird eine Zelle aktiviert und im Menü „@RISK“ der Unterpunkt „Model“ und „Define Distribution...“ aufgerufen. Direkter geht es durch . Als Folge erscheint ein neues FensAnklicken des „Define Distributions“-Icons ter mit den Informationen zur aktuellen Verteilung. Die Standardnormalverteilung ist dabei voreingestellt.

30

Leitfaden @RISK

x

3.2.1 Was Sie über Verteilungen wissen müssen....

Der Begriff der Verteilung ist auf den ersten Blick verwirrend, da eine mathematische Verteilung durch viele Begriffe (Mittel, Modus, Median, ...), Zahlen und Grafiken definiert werden kann. Der folgende Einschub soll Ihnen etwas Orientierung und Ordnung ermöglichen. Zunächst können Verteilungen nach zwei grundlegenden Eigenschaften unterschieden werden: - Ausprägungen: diskret oder kontinuierlich - Wertebereich: zweiseitig beschränkt, einseitig beschränkt oder unbeschränkt
Diskrete Ausprägungen: Eine diskrete Verteilung kann nur (abzählbar viele) einzelne Werte annehmen. Dies können z. B. Anzahlen (0, 1, 2, 3, ...), wie die Anzahl der geschädigten Tiere im Tierexperiment, die Anzahl der lebenslangen Arbeitstage, oder auch die Ausprägungen einer Kategorisierung sein, wie z. B. das Geschlecht: männlich=0, weiblich=1. Kontinuierliche Ausprägungen: Eine kontinuierliche Verteilung kann zu zwei Werten auch immer alle Zwischenwerte annehmen. Dies entspricht einer Messung mit prinzipiell beliebiger Genauigkeit. Zweiseitig beschränkter Wertebereich: Eine Verteilung ist zweiseitig beschränkt, wenn es sowohl einen (theoretisch begründeten) minimalen als auch einen maximalen Wert gibt, der die Verteilung nach unten bzw. oben einschränkt. Quantale Daten, d. h. Anteile von Merkmalsträgern, sind in der Regel durch 0 (keine Merkmalsträger) nach unten und durch 1 (nur Merkmalsträger) nach oben beschränkt. Einseitig beschränkter Wertebereich: Existiert nur eine (theoretisch begründete) Grenze nach unten bzw. nach oben, spricht man von einer einseitigen Beschränkung. Dies sind insbesondere alle Konzentrationsdaten, die per Definition nicht negativ sein können (0 ist also das Minimum). Unbeschränkter Wertebereich: Eine nicht beschränkte Verteilung ist unbeschränkt. Sie umfasst also negative als auch positive Zahlen beliebigen Betrages. Unbeschränkte Verteilungen treten auf, wenn keine Grenzen theoretisch abgeleitet werden können. In der Simulation heißt dies aber nicht, dass auch beliebig große Beträge auftreten müssen, da diese unter Umständen eine zu geringe Wahrscheinlichkeit besitzen, um beobachtet werden zu können.

Leitfaden @RISK

31

Die Einflussgrößen im Cadmium-Modell (Beispiel 3.1) werden alle durch kontinuierliche Verteilungen modelliert. Es gibt aber noch weitere Verteilungen, die im Wesentlichen jeweils spezielle Experimente beschreiben. So beschreibt die Binomialverteilung die zufällige Anzahl des (unabhängigen) Auftretens von Schädigungen in einem Tierexperiment (mit gleichartigen Tieren).

Ausprägungen Wertebereich Zweiseitig beschränkt diskret
Diskrete Gleichverteilung, Binomialverteilung, hypergeometrische Verteilung, empirische Verteilung Poisson-Verteilung, geometrische Verteilung, negative Binomialverteilg.

kontinuierlich
Stetige Gleichverteilung, Beta-Verteilung, Dreiecksverteilung, kumulative Verteilung Exponentialverteilung, Weibullverteilung, Gammaverteilung, Lognormalverteilung, Loglogistische Verteilung Normalverteilung, logistische Verteilung, Student’sche t-Verteilung

Einseitig beschränkt

Unbeschränkt

y

Weitere Hinweise zur passenden Auswahl einer Verteilung zur Modellierung konkreter Daten gibt es im Kapitel 6.

Im Auswahlfeld zur Verteilung („Distribution“) können Sie jetzt eine Lognormalverteilung wählen. Wählen Sie bitte dazu „Lognorm2“ aus.

Als Hilfestellung bietet Ihnen @RISK auch ein grafisches Auswahlmenü an, dass Sie aufrufen können. Es erscheinen die in @RISK mit dem „Distributions“-Icon verfügbaren Verteilungen jeweils mit einer kleinen Skizze der zugehörigen Dichte. Sie wählen die gewünschte Verteilung durch Klicken auf die Skizze aus.

32

Leitfaden @RISK

Die Angabe des Verteilungsnamens reicht allerdings nicht zur Festlegung einer einzelnen Verteilung aus. Vielmehr können in einer solchen Familie von Verteilungen noch sehr unterschiedliche Vertreter zusammengefasst sein. Zur konkreten Auswahl bedarf es noch der Angabe der Parameter. Die Anzahl der Parameter ist dabei ein gutes Maß für die Komplexität der Verteilung. Bei der Lognormalverteilung („Lognorm2“) sind es zwei Parameter mit den Bezeichnungen μ und σ. Die Zusammenstellung von notwendigen Kenngrößen zur Identifizierung einer Verteilung eines bestimmten Typs heißt Parametrisierung. So werden zur Beschreibung einer Lognormalverteilung zwei Kenngrößen als Parameter benötigt. Dies sind üblicherweise das arithmetische Mittel μ und die Standardabweichung σ der logarithmierten Werte, entsprechend dem Logarithmus (zur Basis e) des geometrischen Mittels bzw. der geometrischen Standardabweichung. Für bestimmte Modellierungen kann es aber auch sinnvoll sein, das arithmetische Mittel und die Standardabweichung der nicht transformierten Werte als Parametrisierung zu benutzen. Die Parametrisierung einer Familie von Verteilungen ist also weder eindeutig noch standardisiert, so dass jeweils genau darauf geachtet werden muss, welche Angaben zur Spezifikation der Verteilung benutzt werden. Näheres zur Lognormalverteilung finden Sie im nächsten Einschub.

y

Leitfaden @RISK

33

Darüberhinaus besteht die Möglichkeit die Verteilung über zusätzliche Beschränkungen („truncation minimum“, „truncation maximum“) oder eine Verschiebung („shift“) zu verändern. Bei der „Truncation“ wird die Verteilung durch zusätzliche Beschränkungen gestutzt, d.h. dass Beobachtungen außerhalb der Grenzen nicht bei der Simulation berücksichtigt werden. Die Lognormalverteilung ist per Definition einseitig durch 0 nach unten beschränkt und bedarf in der Regel keiner zusätzlichen Stutzung. Im Allgemeinen sollte eine passend gewählte Familie von Verteilungen vor einer nachträglichen Stutzung den Vorrang haben. Die entsprechenden Grenzen sind deshalb auf negativ unendlich („tr. min=-infinity“) und positiv unendlich („tr. max=infinity“) zu belasen. Bei der Verschiebung („shift“) wird die gesamte Verteilung um den angegebenen Wert verschoben. Damit kann die untere Beschränkung auf den theoretisch begründeten Wert angepasst werden. Der Faktor für die Intraspeziesextrapolation kann nach seiner Definition nur Werte größer oder gleich Eins annehmen. Durch eine Verschiebung um 1 („shift=1“) kann die Lognormalverteilung so verändert werden, dass sie nur Ausprägungen größer gleich Eins erzeugt. Eine Verschiebung um Null („shift=0“) lässt die Verteilung unverändert.

Bitte geben Sie die Parameter für die Lognormalverteilung der Aufnahmemenge aus dem Beispiel ein und beobachten die Veränderung in der Grafik und den Kenngrößen. Sie haben jetzt die spezielle Verteilung für die Aufnahmemenge festgelegt.

34

Leitfaden @RISK

@RISK liefert Ihnen jetzt mit der Grafik und den Kenngrößen in der rechten Spalte weitere Informationen zur Kontrolle Ihrer Auswahl.

Eine spezifizierte Verteilung enthält alle Informationen zur Lage (Lokalisation) der Werte der variierenden Größe – das sind z. B. der Median, der arithmetische („Mean“), der geometrische Mittelwert und der Modus (häufigster Wert „Mode“) – zur Streuung (Variation) – das sind z. B. die Standardabweichung („Std. Dev“), die Varianz („Variance“) oder die Interquartilspanne (Differenz von 75 % und 25 %-Quantil) – und zur Symmetrie und Form – das ist z. B. die Schiefe („Skewness“) oder Wölbung („Kurtosis“). Das p %-Quantil beschreibt zusätzlich den Wert der variierenden Größe, so dass mit einer Wahrscheinlichkeit von p% alle Beobachtungen kleiner oder gleich sind. Damit sind 95 % der möglichen Werte der variierenden Größe kleiner oder gleich dem 95 %-Quantil der Verteilung und nur 5 % größer oder gleich. Diese Größen zeigt @RISK in der rechten Spalte an. Die Verteilung kann auch auf verschiedene Arten unter anderem als kumulative Verteilungsfunktionen oder als Dichtefunktionen grafisch dargestellt werden. Die kumulative Verteilungsfunktion beschreibt den Anteil, mit dem die variierende Größe bis zu einem bestimmten Wert, der auf der horizontalen Achse dargestellt wird, auftritt. Die vertikale Achse zeigt den zugehörigen Anteil (auch Wahrscheinlichkeit), der zwischen 0 % (=0) und 100% (=1) liegen kann.
Log-Normalverteilung der Interspeziesextrapolation
25%-Quantil Median = geom.Mittel 75%-Quantil arithm.Mittel

Kumulative Verteilungsfunktion

100%

75%

50%

25%

0%
0 1 2 3 Extrapolationsfaktor 4 5 6

Am Graph der Verteilungsfunktion können entsprechend besonders gut die Quantile der Verteilung abgelesen werden. Die Dichtefunktion stellt mathematisch die erste Ableitung (Steigung) der kumulativen Verteilungsfunktion dar.

Leitfaden @RISK

35

Log-Normalverteilung der Interspeziesextrapolation
Dichte
25%-Quantil Median = geom.Mittel 75%-Quantil arithm.Mittel

Interquartilspanne
0

Standardabweichung

0

1

2

3 Extrapolationsfaktor

4

5

6

Das Integral der Dichtefunktion entspricht damit wieder dem Anteil der Werte des Integrationsbereichs. Das Integral über den gesamten Wertebereich ist 1. Die Ausprägung der Dichte, aufgetragen auf der vertikalen Achse, gibt die Intensität an, mit der einzelne Werte der variierenden Größe auftreten. Dies entspricht ungefähr den beobachteten Häufigkeiten, die allerdings auf der Skala der Ableitung der Verteilungsfunktion gemessen werden. An der Dichtefunktion sind insbesondere die Lokalisation und die Symmetrie der Verteilung gut zu erkennen. @RISK zeichnet deshalb die Dichtefunktion und markiert jeweils zwei Quantile und den zugehörigen Vorhersagebereich.
Log-Normalverteilung der Intraspeziesextrapolation
95%-Quantil

Dichte
0.0000

5%-Quantil

0 5%

1

2 90%

3

4

5

6

7

8 5%

9

10

Extrapolationsfaktor

36

Leitfaden @RISK

Die Angaben für die Referenzlinien:

Linke Referenzlinie „Left X“ „Left P” Rechte Referenzlinie “Right X” “Right P” Rechtes p %-Quantil (horizontale Achse) Zugehörige Wahrscheinlichkeit p Linkes p %-Quantil (horizontale Achse) Zugehörige Wahrscheinlichkeit p

können in @RISK editiert werden. Aktivieren Sie dazu die entsprechende Zelle und verändern Sie den Wert nach Ihren Wünschen.

Bei Eingabe eines Quantil-Wertes berechnet @RISK die zugehörige Wahrscheinlichkeit und umgekehrt. Geben Sie das 25 %- („Left P=25%“) und das 75 %-Quantil („Right P=75%“) ein, so zeigt @RISK unter der Differenz („Diff X“) den Interquartilabstand an.

Leitfaden @RISK

37

zwischenspeiDie Grafik können Sie auch anklicken und mit dem Kopier-Icon chern. Damit steht Ihnen die Grafik in anderen Programmen, z. B. in WORD oder EXCEL zur Verfügung. Durch Anklicken der Grafik mit der rechten Maustaste öffnet sich ein Kontextmenü, bei dem Sie unter „Graph Type“ und dem Untermenü „Ascending Cumulative – Solid“ auch die Darstellung der kumulativen Verteilungsfunktion aufrufen können.

38

Leitfaden @RISK

Zum Abschluss soll die Verteilung noch mit einem Namen versehen werden, damit diese Verteilung später leichter identifiziert werden kann. Nach Anklicken des „Input
Properties“-Icons

öffnet sich ein Eingabe Fenster für den Namen.

Beenden Sie Ihre Eingabe mit „OK“. In der obersten Befehlszeile können Sie jetzt die @RISK-Funktion zur Definition der Lognormalverteilung ablesen.

Durch Klicken auf Tabellenblatt.

übertragen Sie die Funktion in das EXCEL-

Dies ist das arithmetische Mittel der definierten Verteilung: RiskLognorm2(7.621; 0.2939)

In der Zelle erscheint das arithmetische Mittel („Mean“) der Verteilung.

Leitfaden @RISK

39

x

3.2.2 Was Sie über Lognormalverteilungen wissen müssen …

Die Lognormalverteilung wurde 1879 von Galton als Grenzverteilung unendlicher Produkte hergeleitet. Sie ist eine stetige Verteilung, die nach unten durch Null beschränkt wird und damit auf positive Zahlen konzentriert ist. Ihre Dichte ist rechtsschief und skalenunabhängig, d. h. invariant gegenüber Transformationen der Maßeinheiten. Sie erlaubt wenige sehr große Beobachtungen. Ihren Namen verdankt die Lognormalverteilung einem engen Zusammenhang zur Normalverteilung: Die logarithmierten Beobachtungen entsprechen nämlich einer Normalverteilung. Aus diesem Grund hat sich auch eine Parametrisierung mit dem Mittelwert μ und der Standardabweichung σ der Normalverteilung durchgesetzt.

Lognormalverteilung

Zusammenhang
Natürlicher Logarithmus („LN“)

Normalverteilung

Exponentialfunktion zur Basis e („EXP“) Parameter
μ σ >0 = = μ σ >0

Parameter
Mittelwert Standardabweichung

Kenngrößen
Geometrisches Mittel =Median Geometrische Standardabweichung p%-Quantil GM = EXP(μ) GSD = EXP(σ) xp% = EXP(np%) = EXP(μ+σ zp%) μ = LN( GM ) σ = LN( GSD ) np% = LN(xp%)

Kenngrößen
Mittelwert = Median Standardabweichung p%-Quantil

Anm.: Mit zp% werden die Quantile der Standardnormalverteilung ( „Normal(0;1)“ ) bezeichnet, es gilt: z1% = –2.33 , z5% = –1.64 , z10% = –1.28 , z25% = –0.67, z75% = 0.67, z90% = 1.28 , z95% = 1.64 , z99% = 2.33

40

Leitfaden @RISK

Weitere Kenngrößen von Lognormalverteilungen
Minimum Maximum Arithmetisches Mittel Median Modalwert, Modus Standardabweichung Schiefe 0 nach oben unbeschränkt
1 AM = EXP(μ + 2 σ 2 )

MED = EXP(μ)

MOD = EXP(μ − σ 2 ) SD = EXP(μ ) ⋅ EXP(σ 2 ) EXP(σ 2 ) − 1

[

]

SKEW = EXP(σ 2 ) + 2 ⋅ EXP(σ 2 ) − 1

[

]

Zum Schätzen der Parameter μ und σ wird ebenfalls das Vorgehen bei normalverteilten Beobachtungen übertragen und auf die logarithmierten Werte angewandt. Es ergeben sich folgende Schätzer aus N lognormalverteilten Beobachtungen X1, ..., XN:
ˆ μ=
1 N

n =1

∑ LN( Xn )

N

und
ˆ σ=
1 N −1

n =1

ˆ ∑ [LN( Xn ) − μ]
2

N

2

(ML-Schätzer:

ˆ σ=

1 N

n =1

ˆ ∑ [LN( Xn ) − μ]

N

)

Leitfaden @RISK

41

Q

@RISK bietet die Lognormalverteilung unter dem Namen „Lognorm“ noch mit einer alternativen Parametrisierung an. Hier werden das arithmetische Mittel und die Standardabweichung der Lognormalverteilung, also der NICHT logarithmierten Werte, zur Parametrisierung verwandt. Da die Bezeichnungen μ (jetzt: „Mean“) und σ (jetzt: „Std.Dev.“) beibehalten wurden, kann es leicht zu Verwechslungen kommen.

Zusätzlich besteht die Möglichkeit durch Anklicken der alternativen Parametrisierung („Alt“-Icon) ein neues Fenster zu öffnen:

42

Leitfaden @RISK

indem weitere Parametrisierungen, z. B. die Angabe zweier Quantile, gewählt werden können:

Hier können Sie die Prozentangaben der vorgegeben Quantile („Percentile“) eintragen und mit „OK“ bestätigen.

x

3.2.3 Umrechnung der Parameter der GF-Verteilung für Unterverteilungen als Formulartabelle

In der Datenbank RefXP werden die Verteilungen der Expositionsfaktoren als Generalisierte F-Verteilungen (GF-Verteilungen) beschrieben. Für diese Verteilungsfamilie findet sich in @RISK kein Zufallszahlengenerator. Deshalb ist es notwendig auf zweiparametrige Unterverteilungen zurückzugehen, wie sie für Simulationen üblich sind. In der Datenbank werden entsprechende Vorschläge in der Rangfolge ihrer Anpassungsgüte gegeben. Die beste Approximation liefert der so genannte „Best Fit“. Dies ist die Log-logistische, Log-Normal-, Weibull oder Gamma-Verteilung, die den geringsten Unterschied zur GFVerteilung aufweist. Die Angabe erfolgt in der Datenbank teilweise noch in der Parametrisierung der GF-Verteilung, so dass für die Eingabe in @RISK Umrechnungen notwendig werden.

Leitfaden @RISK

43

Ein neues EXCEL-Tabellenblatt enthält alle Formeln zur Umrechnung der Parameter und die entsprechenden @RISK-Befehle:

sowie Kennzahlen und Funktionswerte zum Vergleich:

44

Leitfaden @RISK

Da es sich hierbei um eine häufigere Anwendung handelt, lohnt sich die Programmierung eines passenden EXCEL-Formulares. Unter dem Menüpunkt „Einfügen“ erhalten Sie im Unterpunkt „Tabellenblatt“ ein leeres Tabellenblatt in EXCEL, das Sie passend umbenennen können. Die gelben Felder sollen zur Eingabe dienen und die grün unterlegten Felder die Ergebnisse enthalten. Die nachfolgende Tabelle zeigt die notwendigen Einträge und Formeln. Die Zahlenangaben beziehen sich auf die Gesamtaufnahme an Lebensmittel von männlichen Jugendlichen im Alter zwischen 14 und 15 Jahren aus der Datenbank RefXP. Selbstverständlich können die Angaben, Positionen und Bezüge in Ihrem eigenen Tabellenblatt andere sein. Benutzt werden verschiedene EXCEL-Funktionen. Weitere Informationen zu den Formeln finden Sie in der Literatur über Verteilungen, insbesondere [Evans et al. 2000].

Leitfaden @RISK

45

A
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 Wahrscheinlichkeit Quantil p Parameter Shape Scale Mean Std-Dev.
(Umrechnung für Lognormalverteilung)

B

C

D

E

F

G

Umrechnung der Parameter der GF-Verteilung für Unterverteilungen
Verteilung GFLogVerteilung logistische Verteilung Log-Normal- Weibull- GammaVerteilung Verteilung Verteilung

@RISK-NAME

RISK RISK RISK RISK LOGLOGISTIC LOGNORM2 WEIBULL GAMMA

Parameter der GF-Verteilung (rote Angaben sind fest)
Parameter m1= m2= λ= p= 9.11183 9.70326 0.00049 1.61247 1 1 0.00049 5.95789

∞ ∞
0.00049 3.40278

1

11.74583

∞
0.00042 3.36433

∞
0.00047 1

Parameter der @RISK-Verteilungen
α= β= μ= σ= ω2= 2140.7343 5.9579 2042.9009 7.6213 0.2939 1.0902 2131.3079 2122.1800 2131.2873 3.3643 2363.5074 11.7458 181.4506

@RISK-Befehl

Kennzahlen
Arithm. Mittel E(X) 2131.0145 2140.7343 2131.3079 2122.1800 2131.2873

Funktionen
Beobachtung Dichtefunktion Verteilungsfunktion x= f(x)= F(X)= 0.4711 2000.0000 2000.0000 0.0007 0.4684 2000.0000 2000.0000 0.0007 0.4723 0.0005 0.4346 2000.0000 0.0007 0.4532

0.5 2042.8846

0.5 2042.9009

0.5

0.5

0.5 2071.1182

q(p)=

2041.2329 2119.5542

46

Leitfaden @RISK

Berechnungen:
GF-Verteilung: Eingaben: 1. Parameter: m1 2. Parameter: m2 3. Parameter: λ 4. Parameter: p Beobachtung: x Wahrscheinlichkeit: p Ausgaben: Arithm. Mittelwert: E(X)

Zelle =Formel

C9 C10 C11 C12 C30 C34 C26= EXP( LN( $C$10/$C$9 ) / $C$12 )*EXP( GAMMALN( $C$9 + 1/$C$12 )) * EXP( GAMMALN( $C$10 - 1/$C$12 )) / $C$11 / EXP( GAMMALN( $C$9 )) / EXP( GAMMALN( $C$10 )) C32= 1 - FVERT( EXP( LN( $C$11*$C$30 ) * $C$12 ); 2*$C$9; 2*$C$10 ) C35= EXP( LN( FINV( $C$34; 2*$C$9; 2*$C$10 )) / $C$12 ) / $C$11

Verteilungsfunktion: F(x) Quantil: q(p)=

Beachte: Für große Werte von m1 bzw. m2 sind nicht alle Berechnungen mit EXCEL möglich. Log-logistische Verteilung: Eingaben: 1. GF-Parameter: λ 2. GF-Parameter: p Beobachtung: x Wahrscheinlichkeit: p Ausgaben: 1. @RISK-Parameter: α 2. @RISK-Parameter: β @RISK-Befehl: Arithm. Mittelwert: E(X) Dichtefunktion: f(x) Verteilungsfunktion: F(x) Quantil: q(p)= Log-Normalverteilung: Eingaben: 1. GF-Parameter: λ 2. GF-Parameter: p Beobachtung: x Wahrscheinlichkeit: p Ausgaben: 1. @RISK-Parameter: μ 2. @RISK-Parameter: σ Umrechnung: ω2 @RISK-Befehl: Arithm. Mittelwert: E(X) Dichtefunktion: f(x) Verteilungsfunktion: F(x) Quantil: q(p)= E11 E12 E30 E34 E18= E19= E20= E22= E26= E31= E32= E35= -LN( $E$11 ) 1 / $E$12 EXP( $E$19^2 ) RiskLognorm2( $E$18 ;$E$19 ) EXP( $E$18 ) * WURZEL( $E$20 ) NORMVERT( ( LN($E$30) - $E$18) / $E$19; 0; 1; 0) / $E$30 / $E$19 NORMVERT( ( LN($E$30) - $E$18) / $E$19; 0; 1; 1) EXP( $E$19 * NORMINV( $E$34; 0; 1) + $E$18 ) D11 D12 D30 D34 D16= D17= D22= D26= D31= $D$12 1 / $D$11 RiskLoglogistic( 0; $D$17; $D$16 ) EXP( GAMMALN( 1+1/$D$12 )) * EXP( GAMMALN( 1 - 1/$D$12 )) / $D$11 $D$11 * $D$12 * EXP( LN( $D$11 * $D$30 ) * ( $D$12-1)) / ( 1 + EXP( LN( $D$11*$D$30 ) * $D$12 ))^2 D32= EXP( LN( $D$11*$D$30) * $D$12 ) / (1 + EXP( LN($D$11*$D$30) * $D$12)) D35= EXP( LN( $D$34 / (1 - $D$34)) / $D$12) / $D$11

Leitfaden @RISK

47

Weibull-Verteilung: Eingaben: 1. GF-Parameter: λ 2. GF-Parameter: p Beobachtung: x Wahrscheinlichkeit: p Ausgaben: 1. @RISK-Parameter: α 2. @RISK-Parameter: β @RISK-Befehl: Arithm. Mittelwert: E(X) Dichtefunktion: f(x) Verteilungsfunktion: F(x) Quantil: q(p)= Gamma-Verteilung: Eingaben: 1. GF-Parameter: m1 2. GF-Parameter: λ Beobachtung: x Wahrscheinlichkeit: p Ausgaben: 1. @RISK-Parameter: α 2. @RISK-Parameter: β @RISK-Befehl: Arithm. Mittelwert: E(X) Dichtefunktion: f(x) Verteilungsfunktion: F(x) Quantil: q(p)=

F11 F12 F30 F34 F16= F17= F22= F26= F31= F32= F35= $F$12 1 / $F$11 RiskWeibull($F$16; $F$17) $F$17 * EXP( GAMMALN( ($F$16+1) / $F$16)) WEIBULL($F$30; $F$16; $F$17; 0) WEIBULL($F$30; $F$16; $F$17; 1) $F$17 * EXP( LN( LN(1 / (1-$F$34))) / $F$16)

G9 G11 G30 G34 G16= G17= G22= G26= G31= G32= G35= $G$9 1 / ($G$9 * $G$11) RiskGamma($G$16; $G$17) $G$16 * $G$17 GAMMAVERT($G$30; $G$16; $G$17; 0) GAMMAVERT($G$30; $G$16; $G$17; 1) GAMMAINV($G$34; $G$16; $G$17)

Beachte: Für große Werte von m1 sind nicht alle Berechnungen mit EXCEL möglich.

48

Leitfaden @RISK

d

Tipp: Um ein solches Formular gegen versehentliche Änderungen zu schützen, kann die Eingabe auf einzelne Zellen eingeschränkt werden.

Nach Aktivieren einer Eingabezelle (z. B. „C9“) ist im Menü „Format“, Unterpunkt „Zellen...“, Registerkarte „Schutz“ die Sperrung aufzuheben (Voreinstellung = „Gesperrt“).

Nachdem dies für alle Eingabezellen erfolgt ist, wird das restliche Blatt unter Menüpunkt „Extras“, Unterpunkt „Schutz“ / „Blatt schützen“ für Eingaben gesperrt. Ein Kennwort muss nicht eingegeben werden.

Auf dem gleichen Weg können Sie den Schutz auch wieder aufheben. Nach Eingabe der Parameter in die entsprechenden Felder erhalten Sie nach der Bestätigung Ihrer Eingabe die Ergebnisse angezeigt.

Leitfaden @RISK

49

Wiederholen Sie jetzt die Schritte für die Eingangsverteilungen der CadmiumKonzentration und der Resorptionsrate. Die stetige Gleichverteilung heißt in @RISK RISKUNIFORM und die Dreiecksverteilung RISKTRIANG. Mehr zur Anwendung dieser Verteilungen erfahren Sie später in Abschnitt 6.4.

Damit sind bis auf das Körpergewicht alle Eingangsverteilungen im Programm passend definiert.

50

Leitfaden @RISK

x

3.2.4 Mischen von Verteilungen...

Beim Körpergewicht liegen zwei einzelne Verteilungen für jeweils die 14- und 15-jährigen, männlichen Jugendlichen vor. 14-Jährige: Gamma-verteilt: α = 28.81, β = 1.972 15-Jährige: Gamma-verteilt: α = 39.89, β = 1.561 Hier zeigte sich bei der Auswertung der Nationalen Verzehrsstudie (NVS 1985-89) – als empirische Datengrundlage – ein signifikanter Unterschied zwischen den Alterstufen, der allerdings in dieser Modellierung nicht berücksichtigt werden soll. Also müssen die zwei Teilpopulationen im Rechner wieder gemischt werden. Dazu wird im ersten Schritt entschieden, ob ein 14-jähriger oder ein 15-jähriger Jugendlicher simuliert werden soll. Anteil 14-Jähriger: 51.9% (in der NVS: N=152 Personen) Anteil 15-Jähriger: 48.1% (in der NVS: N=141 Personen) Mit Hilfe einer (diskreten) Binomialverteilung auf den Werten {0,1} mit dem Parametern n=1 und p=0.519 wird eine Variable erzeugt, die mit einer Wahrscheinlichkeit von p=0.519 den Wert 1 (=14-Jährige) und mit der Restwahrscheinlichkeit von p=0.481 den Wert 0 (=15-Jährige annimmt. Die @RISK-Funktion in Zelle „F12“ lautet:
(F12) =RiskBinomial( 1; 0.519 )

Leitfaden @RISK

51

Mit Hilfe dieser Zelle können die Gamma-Verteilungen in den Zellen „G10“ und „G11“:

14-Jährige: (G10) 15-Jährige: (G11) gemischt werden:

=RiskGamma(28.81; 1.972) =RiskGamma(39.89; 1.561)

(B10) = $F$12 * $G$10 + (1-$F$12) * $G$11

52

Leitfaden @RISK

In der Zelle „B10“ steht mit einer Wahrscheinlichkeit von 0.519 ein wert aus der Verteilung der 14-Jährigen („G10“) und mit der Restwahrscheinlichkeit von 0.481 ein Wert aus der Verteilung der 15Jährigen („G11“). Nach dem gleichen Prinzip kann man auch mehr als zwei Verteilungen Mischen. Näheres finden Sie in Abschnitt 6.4. Da es sich hierbei um eine häufigere Anwendung handelt, lohnt sich die Programmierung einer passenden Formulartabelle. In @RISK ist es auch möglich die Zahlenangaben in der Definition der Verteilung durch passende Zellennamen zu ersetzen, z. B. bei der Binomialverteilung zum Mischungsverhältnis:
(F12) =RiskBinomial(1; $F$10; RiskName(„MixBW“))

an Stelle von:
(F12) =RiskBinomial(1; 0.519; RiskName(„MixBW“))

wobei in der Zelle „F10“ der Mischungsanteil der 14-Jährigen steht. Analog heißen die Befehle der Gamma-Verteilungen: 14-Jährige: (G10) =RiskGamma($H$10; $I$10; RiskName(„BW14“)) 15-Jährige: (G11) =RiskGamma($H$11; $I$11; RiskName(„BW15“))

d

Tipp: Im Beispiel wurden die Bevölkerungsanteile an Hand der repräsentativen Stichprobe von 1985-89 ermittelt. An dieser Stelle könnten auch die Bevölkerungsanteile der aktuellen Altersjahrgänge oder besonderer Teilgruppen der Bevölkerung (z. B. Fahrradfahrer) stehen. Damit ist es möglich die Alters- und Geschlechtsstratifizierung zur Anpassung der Expositionsabschätzung an die neuere Bevölkerungsentwicklung oder an Teilpopulationen zu benutzen.

Die nachfolgenden Tabellen zeigen den bisherigen Aufbau des Programms:

Leitfaden @RISK

53

A 1 2 3 4 5 6 7 8 9

B

C

D

E

F

G

H

I

Verteilungsbasiertes Expositionsmodell
Schadstoff: Medium: Teilpopulation: Cadmium Nahrung (gesamt) Jungen, 14-15 Jahre

Eingangsgrößen
C IU R

Verteilung

Bemerkungen

4.00 Konzentration im Medium [ng/g] 2131 Aufnahmemenge pro Tag [g/d] 0.05 Resorptionsrate [-] 56.8 Körpergewicht [kg]

Alter

n Anteil

Verteilung

α

β

10 BW 11 12 13 Zielgröße 14 ADD-res 15 16 Simulation 17 Simulation: 18 Startwert: 19 Berechnungen:
Eingaben: Verteilung von C Verteilung von IU Verteilung von R Zu BW: Stichprobengröße 14J Verteilung von BW der 14J Stichprobengröße 15J Verteilung von BW der 15J Berechnungen: Gesamtstichprobe BW Anteil 14J Anteil 15 J Mischungsvariable Verteilung BW Ausgaben: Referenzwert

14 152 51.9% 15 141 48.1% Summe 293 1

56.80 28.81 1.972 62.28 39.89 1.561

Modell 7.504 Resorbierter Schadstoff

bezogen auf Körpergewicht und Tag [ng/(kg*d)]

Latin-Hypercube: 5000 Simulations

Fixed seed: 060101

Zelle = Modell B7= RiskUniform(3; 5; RiskName("C")) B8= RiskLognorm2(7.62130927; 0.29387705; RiskName("IU")) B9= RiskTriang(0.04; 0.05; 0.06; RiskName("R")) eingesetzte Parameter der Gamma-Verteilungen: α= E10 G10= RiskGamma($H$10; $I$10; RiskName("BW14")) E11 G11= RiskGamma($H$11; $I$11; RiskName("BW15")) H11 I11 H10 I10 β=

E12= SUMME($E$10:$E$11) F10= $E$10/$E$12 F11= $E$11/$E$12 F12= RiskBinomial(1; $F$10; RiskName("MixBW")) B10= $F$12*$G$10+(1-$F$12)*$G$11

B14= $B$7*$B$8*$B$9 / $B$10

54

Leitfaden @RISK

x

3.2.5 Punktmasse auf Null (PMZ)...

Für viele Expositionsfaktoren wird zusätzlich zur Verteilung eine Punktmasse auf Null (Point Mass at Zero, PMZ) angegeben, die den Anteil der Bevölkerung beschreibt, die das entsprechende Expositionsmedium gar nicht betrifft. Für diesen Anteil der Bevölkerung ist der Expositionsfaktor also konstant auf dem Wert Null. Damit ist die Punktmasse auf Null aber nichts anderes als eine Mischung von zwei Verteilungen: Null-Wert: Werte über Null: Anteil PMZ=p; Anteil 1-p; Verteilung: Konstant =0 Verteilung: RiskVerteilung

mit @RISK-Funktion:

=RiskBinomial(1; 1-p) * RiskVerteilung

Als Beispiel könnte bei der Konzentration eine Punktmasse auf Null von p=0.075 eingeführt werden, hier der Anteil unbelasteter Nahrung.
(F7) =Binomial(1; 0.075)

Für die restliche Nahrung gilt die bisherige Verteilung:
(B7) =RiskUniform(3; 5)

Für die Verteilung mit PMZ ergäbe sich
(B7) =$F$7 * 0 + (1-$F$7) * RiskUniform(3; 5)

oder die vereinfachte Formel
(B7) = Binomial(1; 1-0.075) * RiskUniform(3;5)

Leitfaden @RISK

55

Q

Die Vereinfachung in der Formel zur Punktmasse auf Null ist bei der Mischung von Verteilungen falsch:
=RiskBinomial(1; p)*RiskVert1 + RiskBinomial(1; 1-p) * RiskVert2

da hier sonst zwei, unabhängige Mischungsvariablen (= Realisationen zweier binomialverteilten Zufallsvariable) benutzt werden!

3.3 Modellgleichung

Das Modell für den Referenzwert wird als Formel in der üblichen EXCEL-Konvention eingetragen. Der Zahlenwert gibt ebenfalls das Ergebnis der normalen EXCELBerechnung wieder.
Dies ist noch der von EXCEL berechnete Wert, gemäß: B14 = B7 * B8 * B9 / B10 ohne Simulation!

Zur Unterscheidung von bloßen Zwischenschritten und Zwischenergebnissen, werden die Simulationsergebnisse in @RISK besonders als „Output“ gekennzeichnet. Dies geschieht im Menü „@RISK“, Unterpunkt „Model“ / „Add Output“ bzw. mit dem
„Add-Output“-Icon . @RISK fordert Sie anschließend auf, einen Namen für diese Ergebnisverteilung zu vergeben. Sie können den Vorschlag dabei nach Wunsch abändern.

Ihre Eingabe der Modellgleichung wird dabei um den @RISK-Befehl „RiskOutput(„Name“)+“ ergänzt.

56

Leitfaden @RISK

Damit ist die Eingabe auch des Modells abgeschlossen. Einen Überblick über alle Eingangsverteilungen („Inputs“) und Ergebnisverteilungen („Outputs“) erhalten Sie im Menü „@RISK“, Unterpunkt „Model“ / „List Outputs and Inputs“ oder über den ent. @RISK öffnet daraufhin das Modellfenster mit sprechenden „Display ...“-Icon einer tabellarischen Darstellung der Eingangsverteilungen („Inputs“)

und der Ergebnisverteilungen („Outputs“). Sie springen zwischen den Tabellen durch eine entsprechende Wahl in der Anzeige („Show“).

Wechsel zwischen Eingabe- und Ergebnisverteilungen

Leitfaden @RISK

57

Durch Auswahl einer Eingangsverteilung in der linken Liste

gelangen Sie ebenfalls zur Definition und klicken des „Define Distribution“-Icons der Verteilung und können eventuelle Korrekturen vornehmen. Mit dem EXCEL-Icon gelangen Sie zurück zum Tabellenblatt.

Möchten Sie nur einen knappen Überlick über die @RISK-Funktionen im Tabellenblatt erhalten, betätigen Sie den „Select functions“-Icon wahlfenster . Im erscheinenden Aus-

können Sie auswählen, welche @RISK-Funktionen im Tabellenblatt markiert werden sollen.

Vor dem nächsten Schritt sichern Sie bitte Ihre Eingaben in EXCEL und speichern Ihre Datei mit Hilfe des „Speichern“-Icons ab.

58

Leitfaden @RISK

y

Wichtige Schalter (Icons)

Definition einer Verteilung Auswahl von Verteilungen Optionen für Verteilungen Einfügen von Verteilungen

Seite 29 Seite 31 Seite 38 Seite 38

Aufruf alternativer Verteilungsparameter Seite 41 Definition einer Ergebnisverteilung Anzeigen von Eingangs- und Ergebnisverteilungen Markieren der @RISK-Funktionen im EXCEL-Tabellenblatt Seite 55 Seite 56 Seite 57

Leitfaden @RISK

59

4 Monte Carlo-Simulationen
Bis jetzt wurden alle Berechnungen mit EXCEL ausgeführt. In diesem Abschnitt wird beschrieben, wie in @RISK eine Simulation gestartet wird.

Q

Da @RISK bei einer Simulation Veränderungen in der EXCEL-Tabelle vornimmt, darf diese nicht gegen Eingaben geschützt sein.

x

4.1 Was Sie über Simulationen wissen müssen....

Im Computer werden Simulationen mit Hilfe von sogenannten Pseudozufallszahlen durchgeführt. Diese sind nicht wirklich zufällig, sondern werden mit Hilfe eines festen Algorithmus, dem Pseudozufallszahlen-Generator, erzeugt. Dabei berechnet der Computer aus der jeweils aktuellen die nächste, neue Zufallszahl. So entsteht eine Folge von beliebig vielen Zahlen, die sich erst nach ca. 2 Milliarden Schritten wiederholt. Mit üblichen statistischen Verfahren ist dabei kein signifikanter Unterschied zu theoretischen Zufallszahlen festzustellen. Ein Generator ist dabei umso besser, je speziellere Tests keine Unterschiede aufzeigen. Für eine Simulationsrechnung ist aber von Vorteil, dass die Berechnungen mit ihren Ergebnissen wiederholt werden können, wenn die Startzahl der Simulation („Seed“) und die Anzahl der Replikationen bekannt ist.

d

Tipp: Zur späteren Überprüfbarkeit ihrer Berechnungen sollten Sie immer die Startzahl („Seed“) und Anzahl der Replikationen dokumentieren. Variieren Sie die Startzahl und Anzahl der Replikationen nur zur Kontrolle der Stabilität der Ergebnisse. Benutzen Sie aber für jedes neue Projekt eine andere Startzahl (z. B. das Datum des Projektbeginns) um systematische Effekte zu vermeiden.

Eine Simulationsrechnung mit @RISK dient nicht der Nachbildung von zufälligen Ereignissen, sondern der approximativen Bestimmung der Zielverteilung, hier des Referenzwertes. Schon einfache Verknüpfungen von unterschiedlichen Verteilungen bewirken, dass eine explizite Bestimmung der Zielverteilung nur noch mit erheblichem Aufwand möglich ist. Hier vereinfacht die Simulationsrechnung die Darstellung der Ergebnisse erheblich. Allerdings ist eine Simulationsrechnung niemals exakt, sondern nähert sich der tatsächlichen Verteilung des Referenzwertes nur an. Je mehr Replikationen Sie durchführen, umso genauer wird das Ergebnis der Approximation. Man spricht von Konvergenz.

60

Leitfaden @RISK

Angaben zur Lokalisation, wie Median oder Mittelwert, konvergieren schneller als Angaben zur Streuung, wie Interquartilspanne oder Standardabweichung. Das gleiche gilt für Quantile im Zentrum der Verteilung (25% bis 75%) im Gegensatz zu den Rändern (1% bis 10% oder 90% bis 99%). Um die Konvergenz festzustellen, wird nach einer vorgegebenen Anzahl von Replikationen geprüft, ob sich im Ergebnis noch starke Veränderungen ergeben haben.
Tipp: Erhöhen Sie zum Abschluss Ihrer Berechnungen die Anzahl der Replikationen nochmals erheblich (z. B. verdoppeln), um die Stabilität zu sichern. Alternativ können Sie auch die Startzahl verändern, um einen Eindruck über die verbleibende Unsicherheit zu erhalten.

d

@RISK bietet Ihnen zwei Alternativen bei der Durchführung Ihrer Simulation: Bei der Monte-Carlo-Simulation einer Verteilung über ihre (inverse) Verteilungsfunktion werden die Pseudozufallszahlen direkt in die Funktion eingesetzt. In der nachfolgenden Skizze von links (y-Achse mit Pseudozufallszahlen) nach unten (x-Achse mit Zufallszahlen in der gewünschten Verteilung).

Log-Normalverteilung der Interspeziesextrapolation
25%-Quantil Median = geom.Mittel 75%-Quantil arithm.Mittel

Kumulative Verteilungsfunktion

100%

75%

50%

25%

0%
0 1 2 3 Extrapolationsfaktor 4 5 6

Dabei kommt es zu Häufungen im Zentrum der Verteilungen. Dieses Verfahren ist schnell in der Berechnung weiterer Replikationen, aber langsam in der Konvergenz der Resultate.

Leitfaden @RISK

61

Bei der Latin-Hypercube-Simulation erfolgt die Zuteilung der Zufallszahlen auf die Funktion in strukturierter Form, so dass in festen Blöcken (in der Skizze pro Quartil) immer gleich viele Zufallszahlen generiert werden.
Log-Normalverteilung der Interspeziesextrapolation
25%-Quantil Median = geom.Mittel 75%-Quantil arithm.Mittel

Kumulative Verteilungsfunktion

100%

75%

50%

25%

0%
0 1 2 3 Extrapolationsfaktor 4 5 6

Bei mehreren Einflussgrößen werden auch die Kombinationen kontrolliert. Dies führt insbesondere bei vielen Einflussgrößen zu einer verlangsamten Erzeugung von Replikationen. Dafür ergibt sich eine schnellere Konvergenz der Zielverteilung. Im vorliegenden Modell mit vier Eingangsverteilungen ist die LatinHypercube-Simulation zu bevorzugen.

4.2 Einstellungen

Die Einstellungen für Ihre Simulation nehmen Sie im Menü „@RISK“, Unterpunkt „Simulation“ / „Settings“ vor. Sie können alternativ auch den „Simulation Settings“Icon karten. anklicken. Es erscheint das „Simulation Settings“-Fenster mit vier Register-

Bei „Iterations“ können Sie die Anzahl der Replikationen („Iterations“) wählen. Bei der Auswahl „auto“ prüft @RISK nach einer festen Anzahl von Schritten, die unter „Monitor“ festgelegt wird, ob noch relative Veränderungen oberhalb der zuwählenden Grenze („Auto-Stop Simulation Convergence Percentage“) stattgefunden haben. Ist dies nicht er Fall, wird die Simulation beendet, im anderen Fall bis maximal 5000 Replikationen ausgeführt. Sie können aber an Stelle von „auto“ auch eine feste Anzahl von Replikationen (auch größer 10000) vorgeben.

62

Leitfaden @RISK

@RISK kann auch mehrere Simulationsläufe gleichzeitig starten. Darauf soll aber im Leitfaden nicht weiter eingegangen werden.

Unter „Sampling” wählen Sie bitte die „Latin-Hypercube“-Simulation aus und geben einen Startwert („Seed“) vor. Bei der Wahl von „Choose Randomly“ startet @RISK die Simulation mit immer neuen Startwerten, die auch nicht angezeigt werden. Die weiteren Einträge übernehmen Sie bitte der Abbildung.

Leitfaden @RISK

63

Der letzte Eintrag erfolgt auf der Registerkarte „Monitor“. Hier können Sie eintragen, nach wie vielen Schritten eine Kontrolle der Konvergenz erfolgen soll („Update every x Iterations“). Für die automatische Simulations-Beendigung sollte die Konvergenz häufiger mit strenger Genauigkeit kontrolliert werden. Bei vorgegebener hoher Anzahl von Replikationen kann die Kontrolle seltener erfolgen, um die Rechengeschwindigkeit nicht zu bremsen.

Damit ist alles für die Durchführung der Simulation vorbereitet. Der Start erfolgt im Menü „@RISK“, Unterpunkt „Simulation“ / „Start“ oder mit Hilfe des „SimulationStart“-Icons

. @RISK zeigt die Durchführung der Simulation in einem Fenster an.

64

Leitfaden @RISK

4.3 Simulation

Zum Abschluss öffnet sich das Ergebnis-Fenster:

Die Simulationen müssen unabhängig von EXCEL gesichert werden. Dies erfolgt im Menu „@RISK“ im Unterpunkt „File“ / „Save“ bzw. „Save as“. Der “Save @RISK-file”Icon . kürzt die Befehlsfolge ab (vergleiche auch Seite 24).

Im „Convergence Monitor“ werden die Ergebnisse der Konvergenzprüfung zusammengestellt. Hier werden nur Zellen aufgenommen und geprüft, die als Zielverteilung
(„RiskOutput“) benannt wurden. Ein lachender Smiley

☺ zeigt an, dass die Ergebdeutet

nisse entsprechend den Abfragen konvergiert haben. Ein trauriger Smiley

auf eine zu große Abweichung bei der letzten Kontrolle hin. Die relativen Abweichungen sind in den linken Spalten („%Change in...“) protokolliert. In der untersten Zeile wird die Anzahl der Replikationen („Iter #=5000“) und die Gesamtlaufzeit („Runtime=00:00:19“) angezeigt.

Bei unzureichender Konvergenz erhöhen Sie bitte die Anzahl der Replikationen. Eine kompakte Wiedergabe des Simulationsergebnisses erhalten Sie unter Menü „Insert“, Unterpunkt „Summary Statistics“ bzw. durch Anklicken des „Summary“-Icons . Hier sind für alle Eingangs- und Ergebnisverteilungen der minimal und maximal

Leitfaden @RISK

65

simulierte Wert, das arithmetische Mittel und zwei Quantile, sowie die Differenzen angegeben. Sowohl der Prozentwert der Quantile, als auch der Quantilwert selbst kann editiert werden. @RISK berechnet anschließend die restlichen Zellen neu.

Einen genaueren Überblick erhalten Sie unter Menüpunkt „Insert“, Unterpunkt „Detailed Statistics“ oder mit Hilfe des zugehörigen Icons . Im entsprechenden Fenster werden zu den Eingangs- und Ergebnisverteilungen die wichtigsten Kenngrößen in Spalten zusammengestellt. Hier ist eine weitere Kontrolle möglich, ob die simulierten Daten den Vorgaben entsprechen.

66

Leitfaden @RISK

Schließlich können auch die Ergebnisse der 5000 Replikationen angezeigt werden. Der Aufruf erfolgt unter Menu „Insert“, Unterpunkt „Data“ oder mit Hilfe des „Data“Icons .

Jede Zeile steht für eine Replikation. Die Ausprägungen der rechten Eingangsvariablen ergeben eingesetzt in die Modellgleichung den linken Wert der Ergebnisvariablen, den Referenzwert für TMP. Durch Anklicken des Feldes oberhalb des Variablennamens kann die gesamte Spalte markiert und kopiert werden.

Leitfaden @RISK

67

Einen schnellen Überblick über die Resultate der Simulation gibt auch die graphische Darstellung der Zielverteilung. Dazu markieren Sie bitte in der linken Spalte die Ergebnisvariable

und rufen mit dem Grafik-Icon , Unterpunkt „Histogram“ die Grafik auf. Alternativ führt auch das Menü „Graph“, Unterpunkt „Graph type“ / „Histogram-Bars“ zum Ziel.

Q

Leider sind die Grafiken zur Ergebnisverteilung in @RISK nicht sehr präzise und bedürfen zumindest der Formatierung. Unter dem Menü „Graph“, Unterpunkt „Format Graph“ rufen sie das Format-Fenster mit mehreren Registerkarten auf. Wir empfehlen Ihnen aber die Darstellung der Verteilung mit EXCEL-Diagrammen.

68

Leitfaden @RISK

Auf der ersten Karte „Type“ wählen Sie bitte folgende Einstellungen aus:

Die Auswahl „Density“ berechnet eine Annäherung an die Dichte. Die Anzahl der Balken („# Bins“) bezieht sich auf die Skalierung der x-Achse („auto (graph axis)“). Auf der zweiten Karte „Scaling“ können Sie den Bereich der x-Achse angeben („Automatically Scale“ deaktivieren). Nach der Auswertung („Summary Statistics“) liegen ca. 80% der Simulationen im Bereich von 0 bis 30.

Leitfaden @RISK

69

Die weiteren Karten legen Färbung und Beschriftung das Graphen fest:

70

Leitfaden @RISK

Wieder können Sie zwei Begrenzungslinien auf ausgewählte Quantile legen.

Dazu sind die Angaben („Left X“, „Left P“, „Right X“, Right P“) in der rechten Spalte zu editieren.

Leitfaden @RISK

71

Wenn Sie mit dem Resultat zufrieden sind, können Sie die Grafik im Menü „Graph“, Unterpunkt „Graph in Excel“ in eine eigene EXCEL-Arbeitsmappe überführen und dort weiterbearbeiten.

Cadmiumaufnahme durch Nahrung
0.2
X <=3.58 5% M ean = 7.41 3237 X <=1 3.03 95%

0.16

0.12

Dichte

0.08

0.04

0 0 5 10 15 20 25

Im folgenden Abschnitt werden aber bessere Möglichkeiten erläutert, eine Grafik mit EXCEL zu erzeugen.

72

Leitfaden @RISK

d

Tipp: Wenn Sie mit Ihrer Programmierung zufrieden sind und die Simulation abschließen möchten, wiederholen Sie den Lauf einmalig mit deutlich erhöhter Anzahl an Replikationen. Bei der heutigen Leistung von PCs ist dies kein Problem der Rechenzeit. Im Beispiel brauchte @RISK für 100 000 Replikationen weniger als 11 Minuten.

Ihr Gewinn liegt in wesentlich präziseren Ergebnissen.

Leitfaden @RISK

73

k

4.4 Literatur zu Simulationen: [Gentle 2003] James E. Gentle: Random Number Generation and Monte Carlo Methods, Statistics and Computing, new edition. Berlin: Springer, 2003 [Fishman 2003] George S. Fishman: Monte Carlo, Concepts, Algorithms, and Applications. Berlin: Springer, 2003 [Lahiri 2003] S.N. Lahiri: Resampling Methods for Dependent Data. Berlin: Springer, 2003. [Law, Kelton 2000] Averill M. Law, W. Dawid Kelton: Simulation Modelling and Analysis, 3rd edition. New York: McGraw Hill, 2000.

y

Wichtige Schalter (Icons)

Einstellungen der Simulation Starten der Simulation Zusammenfassung der Eingangs- und Ergebnisverteilungen Detaillierte Statistiken der Eingangs- und Ergebnisverteilungen Daten der Simulation Aufruf des Grafik-Fensters

Kapitel 4.2 Seite 61 Seite 63 Seite 64 Seite 65 Seite 66 Seite 67

74

Leitfaden @RISK

5 Aufbereitung der Ergebnisse
5.1 Quick-Report

@RISK bietet mehrere Möglichkeiten die Simulationsergebnisse in EXCEL zusammenzufassen und abzuspeichern. Im Ergebnis-Fenster findet sich das Menü „Results“

Der Unterpunkt „Report settings“ bzw. der „Report settings“-Icon Auswahl von Ergebnistabellen.

erlaubt eine

Interessant sind insbesondere die Ergebnisverteilungen. Durch Anklicken von „Generate Reports Now“ wird eine neue EXCEL-Arbeitsmappe mit gut formatierten Tabellen erzeugt, die die ausgewählten Ergebnisse enthalten.

Leitfaden @RISK

75

Kürzer, aber auch wesentlich übersichtlicher, ist der Kurzreport, der unter dem Menü „Results“, Unterpunkt „Quick Report ...“ aufgerufen werden kann. Hier werden die wichtigsten Daten und Grafiken auf einer Seite zusammengestellt und in einer weiteren EXCEL-Arbeitsmappe abgespeichert.

Diese Seite kann mit EXCEL im Menü „Datei“, Unterpunkt „Speichern unter..“ abgespeichert und ausgedruckt werden.

76

Leitfaden @RISK

5.2 @RISK-Statistik-Funktionen

Im Folgenden soll aber eine weitaus individueller gestaltete Ausgabe vorgestellt werden, die sich direkt der zusätzlichen Funktion bedient, die @RISK in EXCEL zur Verfügung stellt.

Leitfaden @RISK

77

Die nachfolgende Tabelle fasst die benutzten @RISK-Funktionen zusammen, die alle Auswertungen der Zelle „B14“, d.h. der simulierten Verteilung des Referenzwertes von TMP sind. Berechnet wird das arithmetische Mittel („RiskMean(B14;1)“), die Standardabweichung („RiskStdDev(B14;1)“), die Schiefe („RiskSkewness(B14;1)“), verschiedene p-Quantile („RiskPercentile(B14;p;1)“ und der Wert der Verteilungsfunktion an der Stelle x („RiskTarget(B14;x;1)“) Der Aufruf erfolgt im EXCEL-Tabellenblatt wie jede gewöhnliche EXCEL-Funktion. Sie finden die Funktionen unter „weitere Funktionen“ / „@RISK Statistics“:

Im nachfolgenden Fenster werden jeweils die notwendigen Eingaben erläutert:

78

Leitfaden @RISK

Unter „Data Source“ geben Sie den Namen der Zelle („B14“) ein, in der sich die auszuwertende Verteilung befindet. Die Angabe des Simulationslaufes („sim #“) ist optional, da nur eine Simulation parallel durchgeführt wurde.
A 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 B C

Ergebnisse der Simulation (erst nach der Simulation gültig)
Kenngröße 1%-Quantil 5%-Quantil 10%-Quantil 25%-Quantil 50%-Quantil 75%-Quantil 90%-Quantil 95%-Quantil 99%-Quantil Median Arithm. Mittel Standardabweichung Interquartilabstand Schiefe Referenzdosis zugehöriges Quantil Wert 2.760 3.578 4.125 5.308 6.824 8.959 11.306 13.028 16.997 6.824 7.413 3.006 3.651 1.238 10.000 82.72% Referenzwert (fiktiv) Bemerkung

Berechnungen:
Eingaben: Modell Referenzdosis Ausgaben: 1%-Quantil 5%-Quantil 10%-Quantil 25%-Quantil 50%-Quantil 75%-Quantil 90%-Quantil 95%-Quantil 99%-Quantil Median Arithm. Mittel Standardabweichung Interquartilabstand Schiefe Quantil zur Referenzdosis Zelle = B14= B60 Formel $B$7*$B$8*$B$9 / $B$10

B46= B47= B48= B49= B50= B51= B52= B53= B54= B55= B56= B57= B58= B59= B61=

RiskPercentile($B$14;0.01;1) RiskPercentile($B$14;0.05;1) RiskPercentile($B$14;0.1;1) RiskPercentile($B$14;0.25;1) RiskPercentile($B$14;0.5;1) RiskPercentile($B$14;0.75;1) RiskPercentile($B$14;0.9;1) RiskPercentile($B$14;0.95;1) RiskPercentile($B$14;0.99;1) $B$50 RiskMean($B$14;1) RiskStdDev($B$14;1) $B$51-$B$49 RiskSkewness($B$14;1) RiskTarget($B$14;$B$60;1)

Leitfaden @RISK

79

Q d Q

Eine Besonderheit ergibt sich, wenn Sie @RISK mit @RISK-Funktionen starten, da diese erst nach einer erfolgten Simulation die korrekten Werte annehmen. Zuvor wird nur der Inhalt der auszuwertenden Zelle, hier von „B14“ wiederholt.
Tipp: Benutzen Sie die @RISK-Funktionen um Formulare mit individuell gestalteten Berichten zu entwickeln. Diese Berichte können alle notwendigen Informationen zu Ihrem Projekt, wie Basisstudien, Entscheidungen etc. enthalten.

Um einen solchen Bericht in einer EXCEL-Datei abzuspeichern, die unabhängig vom Programm @RISK aufgerufen werden kann, bedarf es eines Tricks. Erstellen Sie dazu zunächst im EXCEL-Menü „Bearbeiten“, Unterpunkt „Blatt verschieben/kopieren...“ eine Kopie Ihres fertigen Berichts. Der Punkt „Kopie erstellen“ muss dazu aktiviert sein.

Markieren Sie anschließend in der Kopie die gesamte Tabelle und löschen Sie den Inhalt mit der „Entf“-Taste. Sie haben jetzt eine leere Kopie Ihres Berichtes mit allen Textformatierungen erzeugt.

80

Leitfaden @RISK

Markieren Sie nun die gesamte Tabelle in Ihrem Original-Bericht und
„kopieren“ Sie die Inhalte. Abschließend können Sie diese Inhalte im Menü „Bearbeiten“, Unterpunkt „Inhalte einfügen“ wieder in die leere Version Ihres Berichtes einfügen.

Durch diesen Trick werden zwar alle Formatierungen, nicht aber die Formeln und Berechnungen übernommen. Die Kopie Ihres Berichtes enthält nur noch die Werte, die auch ohne @RISK mit EXCEL weiterbearbeitet werden können.

Leitfaden @RISK

81

5.3 EXCEL-Grafiken mit ungeordneten Daten

Ebenso wie die Auswertungen mit EXCEL programmiert werden können, ist es auch möglich die Grafiken mit EXCEL zu erzeugen. Für genaue Grafiken bedarf es nicht der gleichen Anzahl an Replikationen, wie für die Kennzahlen der Zielverteilung. In der Regel reichen hier 1000 bis 10000 Werte völlig aus. Führen Sie eine entsprechende Simulation in @RISK aus und markieren Sie im Ergebnisfenster die Datenspalte mit den Simulationsergebnissen, die Sie darstellen möchten.

Kopieren Sie die Ergebnisse und fügen diese in einem neuen Tabellenblatt in Spalte „A“ wieder ein (Zelle „A1“ aktivieren und im Menü „Bearbeiten“, Unterpunkt „Einfügen“ auswählen bzw. den Einfüge-Icon

betätigen).

82

Leitfaden @RISK

Die folgenden Befehle können bis zu 10000 ungeordnete Simulationen in Spalte „A“ grafisch darstellen. Die Daten müssen im Bereich „A5:A10004“ vorliegen.
A 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 … 5004 … 10004
ADD-res Output B14 9.04228 3.76846 7.25514 5.22547 12.95756 6.21225 7.74381 13.62394 6.45444 12.07683 8.78779 2.89237 3.85962 8.69283 12.73099 8.15873 8.4313 5.39678 7.53108 5.64919 8.33253 … 7.18678 …

Leitfaden @RISK

83

Die nachfolgenden Grafiken sollen jetzt mit EXCEL erzeugt werden:

Cd-Aufnahme Nahrung
0.20

0.18

0.16

0.14

0.12 Dichte

0.10

0.08

0.06

0.04

0.02

0.00 0.0 5.0 10.0 15.0 20.0 25.0 30.0

Grafik: Dichtefunktion

Cd-Aufnahme Nahrung
0.20

0.18

0.16

0.14

0.12 Dichte

0.10

0.08

0.06

0.04

0.02

0.00 0.0 2.4 4.8 7.2 9.6 12.0 14.4 16.8 19.2 21.6

Grafik: Dichte-Histogramm

84

Leitfaden @RISK

Cd-Aufnahme Nahrung
100%

90%

80%

70%

Verteilungsfunktion

60%

50%

40%

30%

20%

10%

0% 0.0 5.0 10.0 15.0 20.0 25.0 30.0

Grafik: Verteilungsfunktion
Cd-Aufnahme Nahrung
120%

100%

80% Verteilungsfunktion

60%

40%

20%

0% 0.0 2.4 4.8 7.2 9.6 12.0 14.4 16.8 19.2 21.6

Grafik: Verteilung Histogramm

Leitfaden @RISK

85

Folgende Angaben helfen Ihnen bei der Formatierung der Grafiken, die Befehle folgen in der übernächsten Tabelle.
D 8 E Titel= Cd-Aufnahme Nahrung von= 0 bis= 24 von= 0% bis= 100% Anteil abgebild. Daten= 100%

Angaben für die Grafiken:

9 10 x-Achse 11 12 13 Grafikbereich 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47

Kennzahlen der Daten:
Anzahl= 5000 Minimum= 1.521 Maximum= 25.407 Mittelwert= 7.413 Median= 6.825 Standardabw= 3.006 Interquartilabstand= 3.649 5%-Quantil= 3.578 10%-Quantil= 4.126 15%-Quantil= 4.590 20%-Quantil= 4.988 25%-Quantil= 5.310 30%-Quantil= 5.618 35%-Quantil= 5.920 40%-Quantil= 6.225 45%-Quantil= 6.513 50%-Quantil= 6.825 55%-Quantil= 7.182 60%-Quantil= 7.557 65%-Quantil= 7.961 70%-Quantil= 8.431 75%-Quantil= 8.959 80%-Quantil= 9.586 85%-Quantil= 10.327 90%-Quantil= 11.306 95%-Quantil= 13.028

86

Leitfaden @RISK

Für die Grafik werden 100 Stützstellen oder Histogrammbalken ausgewertet:

D
50 51 52 lfd. Nr.

E

F

G

H

I

J

Daten für die Grafiken:
Obere Intergrenze
(von 0 bis=...) vall-

Intervallmitte

Anz. Beob. im Intervall Absolute Häu- Relative figkeit Häufigkeit

Dichte

Verteilungsfunktion Relative, kumulierte Häufigkeit

53

100

54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 75 ... 155 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 ... 100

0.00 0.24 0.48 0.72 0.96 1.20 1.44 1.68 1.92 2.16 2.40 2.64 2.88 3.12 3.36 3.60 3.84 4.08 4.32 4.56
...

0 0.12 0.36 0.6 0.84 1.08 1.32 1.56 1.8 2.04 2.28 2.52 2.76 3 3.24 3.48 3.72 3.96 4.2 4.44
...

0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.02% 0.00% 0.04% 0.30% 0.34% 0.60% 1.00% 1.32% 1.60% 1.68% 2.74% 2.48% 2.54%
...

0 0 0 0 0 0 1 0 2 15 17 30 50 66 80 84 137 124 127
...

0.000 0.000 0.000 0.000 0.000 0.000 0.001 0.000 0.002 0.013 0.014 0.025 0.042 0.055 0.067 0.070 0.114 0.103 0.106
...

0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.02% 0.02% 0.06% 0.36% 0.70% 1.30% 2.30% 3.62% 5.22% 6.90% 9.64% 12.12% 14.66%
...

24.00

23.88

1

0.02%

0.001

99.92%

Damit die Histogramm-Dichte die korrekte Fläche aufweist, müssen die relativen Häufigkeiten durch die Intervallbreite geteilt werden. Die kumulative Verteilungsfunktion ergibt sich stattdessen einfach als Summe der relativen Häufigkeiten. In der Grafik werden die Summen allerdings über den Intervallmitten aufgetragen.

Leitfaden @RISK

87

Berechnungen:
Konstanten:
Anzahl Stützstellen:

Zelle= Formel
D53= 100

Eingaben:
Titelzeile: Startwert x-Achse Endwert x-Achse Datenbereich E9 E11 E12 A5:A10004 E14= WENN($E$11>$E$21;QUANTILSRANG($A$5:$A$10004;$E$11);0) E15= WENN($E$12<$E$22;QUANTILSRANG($A$5:$A$10004;$E$12);1) E16= $E$15-$E$14 E20= E21= E22= E24= E25= E26= E27= E29= E30= E31= E32= E33= E34= E35= E36= E37= E38= E39= E40= E41= E42= E43= E44= E45= E46= E47= ANZAHL($A$5:$A$10004) MIN($A$5:$A$10004) MAX($A$5:$A$10004) MITTELWERT($A$5:$A$10004) MEDIAN($A$5:$A$10004) STABW($A$5:$A$10004) QUARTILE($A$5:$A$10004;3)-QUARTILE($A$5:$A$10004;1) QUANTIL($A$5:$A$10004;0.05) QUANTIL($A$5:$A$10004;0.1) QUANTIL($A$5:$A$10004;0.15) QUANTIL($A$5:$A$10004;0.2) QUANTIL($A$5:$A$10004;0.25) QUANTIL($A$5:$A$10004;0.3) QUANTIL($A$5:$A$10004;0.35) QUANTIL($A$5:$A$10004;0.4) QUANTIL($A$5:$A$10004;0.45) QUANTIL($A$5:$A$10004;0.5) QUANTIL($A$5:$A$10004;0.55) QUANTIL($A$5:$A$10004;0.6) QUANTIL($A$5:$A$10004;0.65) QUANTIL($A$5:$A$10004;0.7) QUANTIL($A$5:$A$10004;0.75) QUANTIL($A$5:$A$10004;0.8) QUANTIL($A$5:$A$10004;0.85) QUANTIL($A$5:$A$10004;0.9) QUANTIL($A$5:$A$10004;0.95)

Ausgaben:
Anteil Beob. unterh. Startw. Anteil Beob. oberh. Endw. Anteil abgebild. Daten= Anzahl= Minimum= Maximum= Mittelwert= Median= Standardabw= Interquartilabstand= 5%-Quantil= 10%-Quantil= 15%-Quantil= 20%-Quantil= 25%-Quantil= 30%-Quantil= 35%-Quantil= 40%-Quantil= 45%-Quantil= 50%-Quantil= 55%-Quantil= 60%-Quantil= 65%-Quantil= 70%-Quantil= 75%-Quantil= 80%-Quantil= 85%-Quantil= 90%-Quantil= 95%-Quantil=

88

Leitfaden @RISK

Viele Auswertungsfunktionen von @RISK gibt es auch als EXCEL-Funktionen mit etwas verändertem Namen. Sie finden diese Funktionen unter „Statistik“:

Berechnungen:
Zeile 55:
Startnummer (Intervallzähler) Untere Intervallgrenze des ersten Intervalls Anz. Beob. bis untere Grenze des ersten Intervalls Rel. Häufigkeit bis untere Grenze des ersten Intervalls Intervallzähler Obere Intervallgrenze Intervallmitte Anz. Beobachtungen im Intervall, abs. Häufigkeit Relative Häufigkeit [%] Dichte Verteilungsfunktion, rel. kumulierte Häufigkeit [%] D55= 0 E55= $E$11+D55*($E$12-$E$11)/$D$53 G55= HÄUFIGKEIT($A$5:$A$10004;$E$55:$E$155) Bereichsfunktion! J55= G55/$E$20

Zeile 56: (entsprechend in Zeilen 57 bis 155 kopieren und einfügen)
D56= E56= F56= G56= $D55+1 $E$11+$D56*($E$12-$E$11)/$D$53 ($E55+$E56) / 2 HÄUFIGKEIT($A$5:$A$10004;$E$55:$E$155) Bereichsfunktion! H56= $G56/$E$20 I56= $H56/($E56-$E55) J56= $J55+$H56

Leitfaden @RISK

89

Für die Grafiken werden Intervallgrenzen festgelegt („E55:E155“), die die Klassen für die anschließende Auszählung bilden. Die EXCEL-Funktion „HÄUFIGKEIT“ bildet dabei eine Besonderheit, da sie eine Bereichsfunktion ist, deren Ergebniswerte einen ganzen Bereich („Array“) über mehrere Zellen hinweg füllen.

Q

Markieren Sie dazu zunächst den betreffenden Bereich für die Ergebnisse. Mit den Angaben des Beispiels ist dies der Bereich „G55:G155“. Wählen Sie anschließend bei „Einfügen“, Unterpunkt „Funktion...“ im Bereich „Statistik“ die Funktion „HÄUFIGKEIT“ aus.

Wählen Sie den Datenbereich („A5:A10004“), sowie die Klassengrenzen („E55:E155“) und schließen mit „OK“ ab. Gehen Sie mit dem Cursor in der Bearbeitungszeile hinter den Befehl

Q

und beenden Sie den Bereichsbefehl mit gleichzeitigem Drücken von „Shift+Strg+Return“.

Die weiteren Befehle berechnen die Intervallmitten, die relative Häufigkeit und die Höhe des Histogramms (Dichte), sowie die Verteilungsfunktion. Die Angaben entnehmen Sie bitte der Tabelle und übertragen diese in Ihr Tabellenblatt.

90

Leitfaden @RISK

Die Grafiken haben nun folgende Spezifikationen:

Grafiken: Auszählungen der ungeordneten Daten
Dateityp Datenreihen Optionen

Dichte Funktion
Punkt (XY)
eine Datenreihe: Name= $E$9 X-Werte= $F$56:$F$155 Y-Werte= $I$56:$I$155 Intervallmitten Dichte Interpoliert, ohne Datenpukte Kein Gitternetz Kein Gitternetz Keine Legende Keine Datenbeschriftungen

Dichte Histogramm
Säule, gruppiert
eine Datenreihe: Name= $E$9 Werte= $I$56:$I$155 Beschriftung $E$55:$E$154 X-Achse= Dichte untere grenzen Kein Gitternetz Intervall- Kein Gitternetz Keine Legende Keine Datenbeschriftung Keine Datentabelle Kein Rahmen Kein Fehlerindikator

Datenreihenformat:

Überlappung= 0 Abstand= 0

Verteilungsfunktion
Punkt (XY)
eine Datenreihe: Name= $E$9 X-Werte= $E$55:$E$155 Y-Werte= $J$55:$J$155 Interpoliert, ohne Datenpukte obere Intervall- Gitternetz grenzen Verteilungsfunktion Gitternetz Keine Legende Keine Datenbeschriftungen

Verteilung Histogramm
Säule, gruppiert
eine Datenreihe: Name= $E$9 Werte= $J$56:$J$155 Beschriftung $E$55:$E$154 X-Achse= Verteilungsfunktion Gitternetz untere Intervall- Kein Gitternetz grenzen Keine Legende Keine Datenbeschriftung Keine Datentabelle Kein Rahmen Kein Fehlerindikator

Datenreihenformat:

Überlappung= 0 Abstand= 0

Leitfaden @RISK

91

Zum Einfügen einer Grafik rufen Sie im Menü „Einfügen“ den Unterpunkt „Diagramm“ auf. Es öffnet sich ein Auswahlfenster. Wählen Sie hier den angegebenen Typ aus.

Mit „Weiter“ gelangen Sie zum zweiten Schritt. Hier können Sie die angegebenen Datenreihen und Beschriftungen auswählen.

92

Leitfaden @RISK

Im dritten Schritt werden noch zusätzliche Formatierungen festgelegt. Übernehmen Sie bitte die jeweiligen Angaben aus der Tabelle.

Im vierten und letzten Schritt legen Sie den Namen des neuen Grafikblattes in Ihrer EXCEL-Arbeitsmappe fest.

Beenden Sie die Grafik mit „Fertig stellen“. In diesem Fall müssen Sie noch die Datenreihe zusätzlich formatieren. Klicken Sie dazu doppelt auf eine Säule. Darauf erscheint ein Fenster mit Formatierungsangaben zur Datenreihe. Hier müssen Sie die Überlappung und den Abstand zwischen den Säulen noch auf Null setzen.

Leitfaden @RISK

93

Die Formatierungen der weiteren Grafikelemente verlaufen nach dem gleichen Schema.

d

Erzeugen Sie nach den Angaben in der Tabelle auch die weiteren Grafiken.
Tipp: Auch hier lohnt sich schnell die Entwicklung einer geeigneten Formulartabelle, da sich durch Einfügen von neuen Daten in Spalte „A“ die Grafiken automatisch anpassen. Vielleicht verwenden Sie unser Beispielprogramm als Ausgangspunkt für Ihre Änderungen. Sowohl die Formulartabelle, als auch die Diagramme lassen sich gegen unbeabsichtigte Änderungen schützen.

94

Leitfaden @RISK

5.4 EXCEL-Grafiken mit geordneten Daten

Ein solches Formular ist auch die nachfolgende Auswertung für eine Grafik. Ausgewertet werden dabei bis zu 10000 geordnete Replikationen der Zielgröße im Bereich „A1:A10000“. In diesem Fall benötigen wir die Information, welches der kleinste, zweitkleinste etc. Wert der Stichprobe ist. Kopieren Sie dazu Ihre simulierten Werte wie zuvor in Spalte „A“ eines neuen Tabellenblatts. (Gegebenenfalls ist ein Blattschutz unter „Extras“ / „Schutz“ aufzuheben.) Löschen Sie dann mit der „Entf“-Taste die obersten Kommentare aus den Zellen. Markieren Sie Spalte „A“ und gehen im Menü „Daten“ auf den Unterpunkt „Sortieren“. Falls folgende Warnung erscheint, erweitern Sie nicht den Sortierbereich:

sondern setzen Sie die Sortierung der Spalte „A“ fort und schließen mit „OK/Sortieren“ ab.

Leitfaden @RISK

95

A 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 … 5000 … 10000
1.52084 1.93704 1.97212 2.23548 2.23548 2.23578 2.23896 2.24991 2.27534 2.29178 2.30985 2.31863 2.32861 2.35784 2.36636 2.36964 2.37341 2.39653 2.40489
…

B
0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 0.1 …

C
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 …

D
0.02% 0.04% 0.06% 0.08% 0.10% 0.12% 0.14% 0.16% 0.18% 0.20% 0.22% 0.24% 0.26% 0.28% 0.30% 0.32% 0.34% 0.36% 0.38% …

25.40701
…

100
…

5000
…

100.00%
…

0.1

10000

200.00%

Verteilungsfunktion (mit logarithmischer Abszisse)
100%

90%

80%

70%

60% Anteil

50%

40%

30%

20%

10%

0% 1 Cd-Aufnahme Nahrung 5.00% 10 90.00% 10.000 Median Mittel 100

Grafik: Verteilungsfunktion mit logarithmischer Achse

96

Leitfaden @RISK

F 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 F 45 G
1.Quantil

G
Titel= Cd-Aufnahme Nahrung

Angaben für die Grafik:
x-Achse (bitte in Größenordnungen) von= von (korrigiert)= bis= bis (korrigiert)= Grafikbereich von= bis= Anteil abgebild. Daten= 0% 100% 100% 1.000 1.000 30.000 100.000

Referenzlinien:
p-Wert= zugehöriges Quantil= 5.00% 3.578

p-Wert= zugehöriges Quantil=

90.00% 11.306

x-Wert= zugehöriger p-Wert=

10.000 83%

Median= Mittel=

6.825 7.413

Kennzahlen der Daten:
Anzahl= Minimum= Maximum= 5000 1.521 25.407

H
2.Quantil

I
x-Wert

J
Median

K
Mittel

Koordinaten 46 der Referenzlinien:
47 48
0 1

3.578 3.578

11.306 11.306

10.000 10.000

6.825 6.825

7.413 7.413

Leitfaden @RISK

97

Berechnungen:
Eingaben:
Titelzeile Startwert x-Achse Endwert x-Achse Datenbereich Referenzlinien für 1. p-Wert 2. p-Wert x-Wert

Zelle= Formel
G13 G15 G17 A1:A10000 G26 G29 G32

Ausgaben:
Korr. Startwert x-Achse auf volle 10er-Potenz Korr. Endwert x-Achse auf volle 10er-Potenz Anteil Beob. unterh. Startwert Anteil Beob. oberh. Startwert Anteil abgebild. Daten Quantil zum 1. p-Wert Quantil zum 2. p-Wert p zum x-Wert Median Mittelwert= Anzahl Beobachtungen Minimum Maximum G16= 10^RUNDEN(LOG( MIN(MAX($G$15;0.001);$G$27;$G$30;$G$32;$G$35;$G$36)) -0.4999;0) G18= 10^RUNDEN(LOG( MAX($G$17;$G$27;$G$30;$G$32;$G$35;$G$36))+0.4999;0) G20= WENN($G$16>$G$41;QUANTILSRANG($A$1:$A$10000;$G$16);0) G21= WENN($G$18<$G$42;QUANTILSRANG($A$1:$A$10000;$G$18);1) G22= G27= G30= G33= G35= G36= G40= G41= G42= $G$21-$G$20 QUANTIL($A$1:$A$10000;$G$26) QUANTIL($A$1:$A$10000;$G$29) WENN($G$32<$G$42;QUANTILSRANG($A$1:$A$10000;$G$32);1) MEDIAN($A$1:$A$10000) MITTELWERT($A$1:$A$10000) ANZAHL($A$1:$A$10000) MIN($A$1:$A$10000) MAX($A$1:$A$10000)

Zeile 1:
gestutzte Beobachtung lfd. Nummer der Beob. Anteil kleinerer Beob. B1= WENN($A$1>$G$16;WENN($A$1<$G$18;$A$1;$G$18);$G$16) C1= 1 D1= $C$1/$G$40

Zeile 2: (entsprechend in Zeile 3 – 10000 kopieren und einfügen)
gestutzte Beobachtung lfd. Nummer der Beob. Anteil kleinerer Beob.[%] B2= WENN($A2>$G$16;WENN($A2<$G$18;$A2;$G$18);$G$16) C2= $C1+1 D2= $C2/$G$40

Diese Berechnungen enthalten viele logische Funktionen, die dazu dienen den Datenbereich auf den Ausgabebereich in ganzen Größenordnungen zu stutzen. An dieser Stelle soll es als Beispiel für die Möglichkeiten eines EXCEL-Formulars dienen. Zur Vereinfachung kann auch mit Spalte „A“ an Stelle von Spalte „B“ weitergearbeitet werden.

98

Leitfaden @RISK

Grafik: Verteilungsfunktion mit logarithmischer Abszisse
Grafiktyp / Datenreihen Bemerkung Optionen

Punkt (XY)
Erste Datenreihe Name= X-Werte= Y-Werte= $G$13 $B$1:$B$10000 $D$1:$D$10000 interpoliert, ohne Datenpunkte Gestutzte logarithmiert, Gitternetz Beobachtungen Anteile Gitternetz, schwarz, durchgezogen Legende unten keine Datenbeschriftungen

Zweite Datenreihe Name= X-Werte= Y-Werte= Dritte Datenreihe Name= X-Werte= Y-Werte= Vierte Datenreihe Name= X-Werte= Y-Werte= Fünfte Datenreihe Name= X-Werte= Y-Werte= Sechste Datenreihe Name= X-Werte= Y-Werte= Mittel $K$47:$K$48 $F$47:$F$48 Mittelwert =$G$36 blau, gestrichelt Median $J$47:$J$48 $F$47:$F$48 Median =$G$35 blau, durchgezogen $G$32 $I$47:$I$48 $F$47:$F$48 x-Wert =$G$32 grün, durchgezogen $G$29 $H$47:$H$48 $F$47:$F$48 p-Wert =$G$30 rot, gestrichelt $G$26 $G$47:$G$48 $F$47:$F$48 p-Wert =$G$27 rot, durchgezogen

Leitfaden @RISK

99

Zum Einfügen der Grafik rufen Sie wieder im Menü „Einfügen“ den Unterpunkt „Diagramm“ auf. Wieder öffnet sich das Auswahlfenster. Wählen Sie hier den angegebenen Typ aus.

Geben Sie jetzt die Datenreihen gemäß den Angaben in der Tabelle ein. Eventuell müssen Sie Vorschläge von EXCEL löschen („Entfernen“)

100

Leitfaden @RISK

Bearbeiten Sie die nachfolgenden Schritte 3 und 4 wie im vorigen Beispiel, um die Grafik fertig zu stellen. Eine Besonderheit dieser Grafik sind die Achsenformatierungen. Klicken Sie dazu die senkrechte Achse doppelt an. Es erscheint ein Formatierungs-Fenster. Bei der yAchse müssen Sie das Maximum auf 1 („Maximum=1“) setzen, um „überzählige“ Beobachtungen von der Grafik auszuschließen.

Bei der horizontalen Achse wählen Sie die logarithmische Skalierung aus.

Leitfaden @RISK

101

k

5.4 Literatur zu EXCEL-Grafiken: [Voß, Schöneck, 2003] Werner Voß, Nadine M. Schöneck: Statistische Grafiken mit Excel – Eine Rezeptsammlung. München: Hanser, 2003.

102

Leitfaden @RISK

6 Verteilungsanpassung
In den bisherigen Kapiteln wurde das Vorgehen bei Simulationen beschrieben, wenn für jede Eingangsvariable die Information in Form einer Verteilung vorliegt. Das Xprob-Projekt und weitere Quellen liefern dazu die notwendigen Angaben. Allerdings werden in Expositionsmodellen häufig auch Größen benutzt, für die keine Verteilungen vorliegen. Eine Verteilungsanpassung fordert dabei von der Bewerterin oder dem Bewerter deutlich mehr Wissen um empirische Grunddaten und statistisches Auswertungen, als dies bei einer Modellierung mit vorgegebenen Expositionsstandards notwendig ist. Dieses Wissen geht in
• •

die Beurteilung der empirischen Datenbasis und in die Modellierung der empirischen Daten mit Hilfe einer Verteilung

ein. Das folgende Kapitel wird Sie in die Möglichkeiten von @RISK einführen, spezifische Eingangsverteilungen zu bestimmen. Bitte fassen Sie die dabei beschriebenen Handlungsanweisungen jedoch nicht als strikte Vorschriften auf, sondern diskutieren Sie jeweils die Vor- und Nachteile der verschiedenen Ansätze am konkreten Einzelfall. Auch hierbei bietet Ihnen @RISK ein einfaches Werkzeug, alternative Modelle zu berechnen und die Konsequenzen für Ihre Regulation zu überprüfen.

x

10 Empfehlungen für die quantitative Expositionsmodellierung...

1. 2. 3. 4. 5. 6. 7. 8. 9. 10.

Sammeln Sie umfassende Informationen aus der Literatur, von Experten und Anwendern. Lassen Sie die Expositionsmodellierung von der Problemstellung leiten. Machen Sie die Expositionsmodellierung so einfach wie möglich, aber nicht einfacher. Identifizieren Sie alle notwendigen Annahmen. Machen Sie Ihre Auswahlkriterien klar und eindeutig. Machen Sie die Unsicherheit der Analyse klar und vollständig. Modellieren Sie die Variation und beschreiben Sie systematisch die Sensitivität. Verfeinern Sie Ihre Problemstellung und Analyse iterativ. Dokumentieren Sie Ihre Analyse klar und vollständig. Lassen Sie Ihre Analyse extern evaluieren.

(angepasst nach Morgan, Henrion 1990)

Leitfaden @RISK

103

6.1 Sammeln von Information

Bei der Ableitung von Eingangsverteilung für das Modell stehen Ihnen prinzipiell verschiedene Informationsquellen zur Verfügung:
• • •

Annahmen des Regulationsmodells / Konventionen Empirische Daten Expertenurteile

Jede Modellierung nutzt dabei stets ALLE drei Komponenten, wenn auch in unterschiedlichem Maße. Beginnen Sie mit der Zusammenstellung der theoretischen Modellannahmen.

6.1.1 Theoretische Modellannahmen

Bevor Sie mit der Auswertung von Daten beginnen, klären Sie bitte die theoretischen Eigenschaften oder Annahmen die Sie einer Einflussvariable im Modell zuschreiben. Welche Ausprägungen kann die Variable annehmen? Diskret oder stetig. In der Regel werden Sie nur Verteilungen in die Auswahl nehmen, die dieselben Ausprägungen, wie die theoretische Variable aufweisen, d.h. diskrete Verteilungen für diskrete Variable und stetige Verteilungen für stetige Variable. Sind die Abstände zwischen den diskreten Ausprägungen klein und irrelevant für die Fragestellung, verschwindet aber der Unterschied zwischen diskreten und stetigen Modellierungen. Falsch wäre es jedoch, die Auswahl der Verteilung nach den Ausprägungen der Beobachtungen auszurichten, die eventuell durch mangelnde Präzision der Erhebung nur in groben Kategorien ( z. B. „unterhalb der Nachweisgrenze“, „>x“) vorliegen. Welche Beschränkungen hat der Wertebereich? Minimum, Maximum, keine. Zur Modellierung einer Variablen kommen nur Verteilungen in Frage, deren Wertebereich, den der Variablen umfasst. In der Regel werden Sie Verteilungen wählen, die nicht durch zusätzliche Beschränkungen gestutzt werden müssen, da diese die theoretischen Eigenschaften der Variablen besser nachzeichnen. Allerdings kann es Teile des Wertebereichs der Verteilung geben, die zwar noch theoretisch möglich, aber so unwahrscheinlich sind, dass Sie in der praktischen Simulation nicht vorkommen. Dies ist dann einer theoretischen Beschränkung gleichzusetzen. Ist die Variable unabhängig von den anderen Modellvariablen? Ja oder nein. Falls Abhängigkeiten bestehen, wie ist die Abhängigkeit zu beschreiben? Die bisher beschriebene Simulationsrechnung geht von unabhängigen Einflussvariablen aus. Eventuelle Abhängigkeiten können durch den Übergang

104

Leitfaden @RISK

auf eine Mischung bedingter Verteilungen modelliert werden. (vergleiche Kapitel 6.5, Seite 133) Kann man aus einem theoretischen Entstehungsmodell auf die Verteilung der Variablen schließen? Fast alle theoretischen Verteilungen wurden aus der Beschreibung experimenteller Datenerhebungen entwickelt und geben damit bestimmte Modellvorstellungen wieder. Die Binomialverteilung („RiskBinomial(n;p)“) beschreibt z. B. die Anzahl der adversen Effekte bei einem Tierexperiment mit n unabhängigen Individuen und der Wahrscheinlichkeit p für den adversen Effekt. Die Normalverteilung („RiskNormal(μ;σ)“) beschreibt z. B. die Verteilung des Mittelwertes einer großen Anzahl unabhängiger, gleichartiger Größen. In der Regel werden Sie zur Modellierung einer Einflussgröße stets die Verteilung benutzen, die zum bekannten Entstehungsmodell gehört. Gibt es theoretische Verteilungen, die üblicherweise zur Modellierung dieser Art von Einflussvariablen benutzt werden? Häufig werden die Entstehungsmodelle der Einflussvariablen aber nicht zu identifizieren sein. Um in der Fülle aller möglichen Verteilungen nicht in die Beliebigkeit zu geraten, wird die Auswahl auf „einfache“ Verteilungen eingeschränkt. Ein guter Maßstab für die Komplexität einer Verteilung ist die Anzahl der notwendigen Parameter zu ihrer Festlegung. Generalisierte Verteilungen sind Familien von Verteilungen, die ein breites Spektrum verschiedener, einfacher Unterverteilungen beinhalten. Sie sind zu bevorzugen, um auch einfache Verteilungen zu überprüfen. Welche Verteilungen aber konkret für eine Anpassung überprüft werden, ist in der Regel eine Konvention, von der erst abgewichen werden sollte, wenn es entsprechende Hinweise gibt.

Für das Modell im Beispiel sind folgende Angaben festzuhalten:

Variable

Ausprägungen

Wertebereich

Entstehungsmodell

Konvention;
falls keine Detailinformationen vorliegen

C IU R BW

stetig stetig stetig stetig

positiv positiv Beschränkt zw. 0 und 1 positiv

Unbekannt

Log-normalverteilt Log-normalverteilt Beta-verteilt Log-normalverteilt bzw. normalverteilt

unbekannt unbekannt unbekannt

Leitfaden @RISK

105

6.1.2 Auswahl empirischer Daten

Im Expositionsmodell des Beispiels wurde die Variation in der Teilbevölkerung der 14- bis 15-jährigen, männlichen Jugendlichen betrachtet. Dazu zählt die variable Kontamination der Nahrungsmittel, die Unterschiede im Verzehr, der individuellen Resorption und dem individuellen Körpergewicht. Im nächsten Schritt stellen Sie bitte alle Informationen zusammen, die im weiten Sinne quantitative Aussagen zu den betrachten Einflussvariablen beinhalten. Dies können direkte Messungen oder Befragungen, Informationen aus Datenbanken, Zusammenfassungen aus der Literatur oder aus weiteren Experimenten abgeleitete Größen sein. Als Grundannahme der Modellierung gilt, dass jede quantitative Größe repräsentativ für die betrachtete Grundgesamtheit der Rahmenbedingungen und unabhängig von den weiteren Messungen ist. Diskutieren Sie die Präzision (Unsicherheit und Verzerrung) jeder einzelnen Größe. Bei Messungen ist die Messgenauigkeit meist bekannt. Aber auch Angaben wie „unterhalb der Nachweisgrenze“, „unterhalb der Bestimmungsgrenze“ bzw. „oberhalb des Messbereichs“ sind im Schätzprozess nutzbar, wenn die entsprechenden Grenzen bekannt sind. Systematische Fehler sollten nach Möglichkeit abgeschätzt und korrigiert werden, hierzu sind z. B. Kalibrierungen verschiedener Messverfahren nutzbar. Aber auch die qualitative Diskussion von möglichen Verzerrungen, wie z. B. bei der Nutzung von nicht-zufälligen Stichproben, sollte hinsichtlich ihrer Richtung erfolgen. Der Informationsgehalt empirischer Daten hängt aber wesentlich vom Umfang der Stichprobe ab. Betrachten wir hier zunächst nur einen Aspekt, nämlich die beobachtete Spannweite zwischen dem minimalen und maximalen beobachteten Wert. Bei stetigen, unbeschränkten Verteilungen können wir davon ausgehen, dass mit wachsender Stichprobengröße immer kleinere und größere Werte auftreten und die Spanne wächst. Im Sinne einer Stichprobenplanung kann die Frage beantwortet werden, ab wann bestimmte p%-Quantile der Verteilung sicher (d.h. mit hoher Wahrscheinlichkeit) von der Spanne der Beobachtungen erfasst werden.
Unteres Quantil 17%-Quantil 10%-Quantil 5%-Quantil 2.5%-Quantil 1%-Quantil 0.5%-Quantil 0.1%-Quantil Oberes Quantil 83%-Quantil 90%-Quantil 95%-Quantil 97.5%-Quantil 99%-Quantil 99.5%-Quantil 99.9%-Quantil Notwendige Stichprobengröße N=20 N=36 N=72 N=146 N=368 N=736 N=3688

106

Leitfaden @RISK

Wir können also davon ausgehen, dass bei N=20 Beobachtungen die Spanne zwischen Minimum und Maximum mindestens. 2/3 der Wahrscheinlichkeit der Verteilung erfasst wird. Bei N>150 sind dies 95% und bei N>750 sogar 99% der Verteilung. Da in der Modellierung aber gerade Werte in den Randbereichen der Verteilung von Interesse sind, heißt dies im Umkehrschluss, dass kleine Stichprobengrößen alleine nicht zur Beschreibung der Randbereiche einer Verteilung ausreichen. Hier muss mit Hilfe von theoretischen Annahmen oder zusätzlichen Expertenurteilen in den Randbereich der Verteilung extrapoliert werden. Als Richtschnur kann (für stetige Verteilungen) folgende Einteilung gelten:

Stichprobengröße N > 200 20 - 200 N < 20

Wesentliche Informations- Verteilungsanpassung quellen Empirische Daten Empirische Daten mit theoretischen Annahmen Empirische Daten mit theoretischen Annahmen und Expertenurteilen Nicht-parametrisch Parameterschätzung Grobe Verteilungsmodellierung

6.1.3 Nutzung von Expertenurteilen

Die Gründe, warum empirische Daten fehlen, sind vielfältig. Unzureichendes Monitoring von Verbraucherprodukten, genaue Messmethoden sind erst seit kurzem verfügbar, die Substanzen sind neu oder der Effekt war bislang unbekannt, Surveys zu speziellen Verhaltensweisen oder Umständen fehlen und vieles mehr. Um trotzdem verfügbares Wissen in den Modellierungsprozess einfließen zu lassen, ist es notwendig Expertenurteile abzufragen. Ein wesentliches Problem ist es dabei, dass inhärente Wissen des Experten in quantitativen Größen auszudrücken. Psychologen haben dazu eine ganze Reihe von Methoden zur Befragung und Visualisierung von Wissen entwickelt. Hier seien nur wenige Grundsätze genannt:
•

Experten sollten nur zu Größen befragt werden, bei denen sie über eigene Erfahrungen (Messungen, Dokumentationen) in quantitativer Form verfügen. Notwendige Umrechnungen, Änderungen der Maßeinheiten etc. sollten erst nachträglich erfolgen. Die Befragung sollte sich auf Beobachtungen beschränken und nicht nach Eigenschaften (Mittelwert, Streuung) der Verteilung fragen. Die Befragung sollte mit typischen, sehr häufigen Beobachtungen beginnen (Anker) und anschließend zu den Randbereichen (seltene Beobachtungen) der Verteilung übergehen.

• •

Leitfaden @RISK

107

Quantil

Verbalisierung

Beschreibung Jede Zweite ist kleiner. Jede Zweite ist größer. Nur jede Vierte ist kleiner. Nur jede Vierte ist größer. Nur jede Zehnte ist kleiner. Nur jede Zehnte ist größer. Nur jede Zwanzigste ist kleiner. Nur jede Zwanzigste ist größer. Nur jede Hundertste ist kleiner. Nur jede Hunderste ist größer. Nur jede Tausendste ist kleiner. Nur jede Tausendste ist größer.

Median / Typische Beobachtung 50%-Quantil: 25%-Quantil: Sehr häufige kleinere Beobachtung 75%-Quantil: Sehr häufige größere Beobachtung 10%-Quantil: Häufige kleinere Beobachtung 90%-Quantil: Häufige größere Beobachtung 5%-Quantil: Gelegentliche kleinere Beobachtung 95%-Quantil: Gelegentliche größere Beobachtung 1%-Quantil: Seltene kleinere Beobachtung 99%-Quantil: Seltene größere Beobachtung 0.1%-Quantil: Sehr seltene kleinere Beobachtung 99.9%-Quantil: Sehr seltene größere Beobachtung

•

Die Angaben sollten visualisiert und rückgekoppelt werden.

Für einen genauen Überblick sei auf die weiterführende Literatur verwiesen.

6.2 Nicht-parametrische Verteilungen bei großen Datenmengen

Liegen ausreichend viele Beobachtungen „x1,...,xN“ zu einer Einflussgröße vor, so bilden auch diese beobachteten Werte und Anteile eine Verteilung, nämlich die sogenannte empirische Verteilung. Sie ist bei einer großen Anzahl von Beobachtungen ein gutes Abbild der zu Grunde liegenden „wahren“ Verteilung. Unter der empirischen Verteilung versteht man konkret die diskrete Gleichverteilung auf den Beobachtungen.

Q

Die nachfolgenden Methoden sollen an einem konkreten Zahlenbeispiel veranschaulicht werden. Um die Übersichtlichkeit zu erhalten, seien nur N=10 Beobachtungen gegeben. Für eine sinnvolle Anwendung nichtparametrischer Verteilungen sind wesentlich größere Stichproben (in der Regel N>200) notwendig!

108

Leitfaden @RISK

Zur Definition der empirischen Verteilung markieren Sie in EXCEL den Bereich mit Ihren beobachteten Werten und kopieren die Werte im Menüpunkt „Bearbeiten“ / „Kopieren“ oder mit Hilfe des Kopier-Icons in den Zwischenspeicher.

Markieren Sie anschließend die Zelle (hier „C17“) für die empirische Verteilung und wählen im Menü „@RISK“, Unterpunkt „Model“ / „Define Distribution...“ bzw. den „Define Distributions“-Icon Verteilung („Dist...“). . Wählen Sie die diskrete Gleichverteilung „DUniform“ als

Leitfaden @RISK

109

Markieren Sie die Datenspalte („X“) und löschen die Standardeinträge mit Entfernen („Entf“).

Aktivieren Sie schließlich das oberste Datenfeld („X1“) und fügen Sie mit Hilfe der rechten Maustaste und dem Punkt „Paste“ im Kontextmenü Ihre beobachteten Daten ein.

Sie erhalten die gewünschte empirische Verteilung:

. Während diese Eingabe die zugehörige Bestätigen Sie Ihre Auswahl mit Verteilung gleich bildlich darstellt und erste Statistiken liefert, hat sie auch Nachteile. So werden die Beobachtungen nur mit Ihren formatierten Werten (hier auf vier Nach-

110

Leitfaden @RISK

kommastellen gerundet) in die Definition übernommen. Deshalb sei an dieser Stelle noch eine Alternative mit den @RISK-Funktionen aufgezeigt. Markieren Sie die Zelle für die empirische Verteilung (hier „C17“) und wählen Sie unter „Einfügen“ / „Funktion...“ die Funktionskategorie „@RISK Distribution“ und weiter „RiskDuniform“.

Im nachfolgenden Fenster tragen Sie den Bereich Ihrer Beobachtungen als Argument ein (hier „C6:C15“).

In die Zelle der EXCEL-Tabelle wird nach Bestätigung mit „ok“ der Befehl =RiskDuniform(C6:C15) übertragen. Angezeigt wird der Mittelwert der Verteilung, nämlich 1.3489. Die empirische Verteilung besitzt jedoch für die Simulation erhebliche Nachteile, da sie zum einen nur die beobachteten Werte repliziert und zum anderen auf den Bereich zwischen minimaler und maximaler Beobachtung beschränkt ist. Im Beispiel sei die Verteilung, wie in der Standardmodellierung, auf die positiven Zahlen beschränkt und kann also Werte zwischen 0 und positiv unendlich annehmen.

Leitfaden @RISK

111

Es gibt verschiedene Verfahren die empirische Verteilung zwischen den einzelnen Beobachtungen zu interpolieren und an ihren Rändern zu extrapolieren, so dass die Nachteile bei der Simulationen ausgeglichen werden. Die folgende Grafik veranschaulicht das Verfahren von Hazen, das im Folgenden weiter ausgeführt wird.

Empirische Verteilung, interpoliert
100%

90%

80%

70% Kumulative Verteilung

60%

50%

40%

30%

20%

Empirische Verteilungsfunktion Interpolation nach Hazen

10%

0% 0 2 4 6 Beobachtungen 8 10

Für die Extrapolation an den Rändern ist dazu die Angabe eines minimalen und maximalen Simulationswerts notwendig. Als minimaler Simulationswert kann das theoretische Minimum (also „0“) genutzt werden. Ein maximal möglicher Simulationswert widerspricht hingegen den theoretischen Annahmen. Als Approximation wird mit Hilfe des arithmetischen Mittelwerts x und der Streuung sx der Stichprobe ein Bereich der Verteilung abgeschätzt, so dass außerhalb nur wenige Beobachtungen zu erwarten sind.
x=
1 N

n =1

∑ xn

N

sx =

1 N −1

n =1

∑ (xn − x )

N

2

Dieser Bereich („c⋅σ-Bereich“) ergibt sich als

[x − c ⋅ sx ; x + c ⋅ sx ]

mit

c≥3

112

Leitfaden @RISK

Für positive und rechtsschiefe Verteilungen ist häufig ein asymmetrisches Intervall sinnvoller, dass mit Hilfe des geometrischen Mittels „GM“ und der geometrischen Standardabweichung „GSD“ konstruiert wird.
LN( x ) =
1 N

n =1

∑ LN( xn )

N

sLN( x ) =

1 N −1

∑ (LN( xn ) − LN( x ))
N n =1

2

GM = EXP( LN( x ) )

GSD = EXP( sLN(x) )

Der asymmetrische Bereich ergibt sich damit als [ GM ⋅ GSD–C ; GM ⋅ GSD+C ] mit c≥3

Für das Zahlenbeispiel gilt: GM = 1.07, GSD = 2.17. Mit c=3 folgt für das approximative Maximum: GM ⋅ GSD+C = 11. Die empirische Verteilung soll entsprechend im Bereich von 0 bis 11 extrapoliert werden. Der Umfang der Extrapolation und die Bedeutung für die resultierende Verteilung schwinden aber mit wachsendem Stichprobenumfang und ist im Zahlenbeispiel mit nur 10 Beobachtungen sehr groß.

Das Verfahren von Hazen berechnet nun an den Beobachtungen und Grenzen die Werte der Verteilungsfunktion und interpoliert zwischen diesen Punkten linear. Dazu müssen die Beobachtungen geordnet vorliegen: Minimum = x(0) < x(1) < x(2) < … < x(N-1) < x(N) < x(N+1) = Maximum Die Werte der Verteilungsfunktion werden wie folgt gesetzt:
⎧ 0, ⎪ n− 1 F(x (n ) ) = ⎨ N 2 , ⎪ 1, ⎩ für n = 0 für n = 1,...,N für n = N + 1

Bei Bindungen, d.h. wiederholten vorkommenden beobachteten Werten, gilt nur der größte Index n.

Leitfaden @RISK

113

In der EXCEL-Tabelle sind folgende Einträge und Berechnungen notwendig:
A 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
Resultierende Verteilung 1.5651 Geometrisches Mittel (GM) Geom. Standardabw. (GSD) Faktor (C) 1.0736 2.1726 3 Arithmetisches Mittel (AM) Streuung (SD) 1.3854 1.0108 0.0710 0.7759 0 Theoretisches Minimum 1 Kleinste Beobachtung 2 Zweitkleinste Beobachtung 3 Drittkleinste Beobachtung 4 5 6 7 8 9 10 N-te geordnete Beobachtung 11 Approximatives Maximum 0.0000 0.3489 0.4135 0.5901 0.6301 1.1946 1.2924 1.3849 2.1320 2.3959 3.4713 11.0092 0.00 0.05 0.15 0.25 0.35 0.45 0.55 0.65 0.75 0.85 0.95 1.00 -1.0529 -0.8830 -0.5274 -0.4618 0.1778 0.2565 0.3256 0.7570 0.8737 1.2445 Lfd. Nummer Bemerkung Geordnete Beo- Wahrscheinbachtungen lichkeit Logarithm. Beobachtungen

B

C

D

E

Anpassung nicht-parametrischer Verteilungen:

114

Leitfaden @RISK

Berechnungen:
Eingaben:
Theoretisches Minimum Geordnete Beobachtungen (ohne Bindungen) Lfd. Nummer / Index Stichprobengröße Faktor (C)

Zelle= Formel
C5 C6:C15 A5:A16 A15 C23 D5= 0

Ausgaben:
Wahrscheinlichkeit Minimum

Zeile 6: (entsprechend in Zeilen 7 bis 15 kopieren und einfügen)
Wahrscheinlichkeit nach Hazen Logarithmierte Beobachtung Wahrscheinlichkeit Maximum Arithm. Mittel der logarith. Beobachtungen Streuung der logarith. Beobachtungen Arithmetische Mittel (AM bzw. x ) Streuung (SD bzw. sx) Geometrisches Mittel (GM) Geom. Standardabweichung (GSD) Approximatives Maximum Resultierende Verteilung D6= ($A6-0.5)/$A$15 E6= LN($C6) D16= 1 E18= MITTEL($E$6:$E$15) E19= STABW($E$6:$E$15) C18= C19= C21= C22= C16= MITTEL($C$6:$C$15) STABW($C$6:$C$15) EXP($E$18) EXP($E$19) $C$21*$C$22^$C$23

C25= RiskCumul($C$5; $C$16; ($C$6:$C$15); ($D$6:$D$15) )

@RISK simuliert Zufallszahlen aus einer solchen interpolierten Verteilungsfunktion mit Hilfe der Funktion “RiskCumul”. Markieren Sie dazu die Zielzelle (hier „C25“) und wählen Sie unter „Einfügen“ / „Funktion...“ die Funktionskategorie „@RISK Distribution“ und weiter „RiskCumul“.

Leitfaden @RISK

115

Im nachfolgenden Fenster tragen Sie das theoretische Minimum (Minimum =C5), das approximative Maximum (Maximum =C16), den Bereich Ihrer Beobachtungen ( {x}= C6:C15 ) und die berechneten Wahrscheinlichkeiten ( {p}=D6:D15 ) ein.

In die Zelle der EXCEL-Tabelle wird nach Bestätigung mit „ok“ der Befehl =RiskCumul(C5; C16; C6:C15; D6:D16); übertragen. Angezeigt wird der Mittelwert der Verteilung, nämlich 1.5651. Weitere Informationen zur Verteilung erhalten Sie, wenn Sie bei markierter Zelle („C25“) unter dem Menüpunkt „@RISK“ / „Model“ den Unterpunkt „Define Distribution...“ oder den entsprechenden „Define Distributions“-Icon aufrufen.

116

Leitfaden @RISK

Definieren Sie die Zelle als „Output“ Ergebnisfenster („@RISK-Results“, Icon: (Icon:

und starten Sie eine Simulation

. Im

) erhalten Sie unter „Detailed Statistics“

) weitere Informationen zur Verteilung.

Sie erkennen, dass die Quantile der Simulation den vorgegeben Punkten der Verteilungsfunktion folgen. Bei 10000 Replikationen wird auch das theoretische Minimum („0“) und das vorgegebene Maximum („11.0092“) beinahe erreicht.

d

Tipp: Die @RISK-Funktion „RiskCumul“ kann also allgemein dazu benutzt werden, aus vorgegebenen Quantilen die vollständige Verteilung zu inter- und extrapolieren. Sie können ebenfalls im „Define Distribution“-Fenster mit „Left P“ bzw. „Right P“ die interpolierten Quantile ablesen. Angaben zu den Quantilen der empirischen Verteilung finden Sie auch in RefXP, so dass Sie nicht die Originaldaten benötigen.

Leitfaden @RISK

117

x

6.2.1 Weitere Interpolationsverfahren...

Das Interpolationsverfahren von Hazen ist nur eine mögliche Definition. Die folgende Tabelle fasst weitere Möglichkeiten zusammen. Für große Stichprobenumfänge ist der Unterschied aber in der Regel sehr klein.

Name des Verfahrens

Beobachtungen

kumulierte Wahrscheinlichkeit
F(x) mit: F(x(0))=0 F(x(N+1))=1

Bemerkungen

x mit: x(0) = Minimum x(N+1) = Maximum x(1)$E$21;QUANTILSRANG($A$5:$A$10004;$E$11);0) E15= $E$15-$E$14 E16= $E$15-$E$14 E20= ANZAHL($A$5:$A$10004) E21= MIN($A$5:$A$10004) E22= MAX($A$5:$A$10004) E24= MITTELWERT($A$5:$A$10004) E25= MEDIAN($A$5:$A$10004) E26= STABW($A$5:$A$10004) E27= QUARTILE($A$5:$A$10004;3)-QUARTILE($A$5:$A$10004;1) E29= QUANTIL($A$5:$A$10004;0.05) E30= QUANTIL($A$5:$A$10004;0.1) E31= QUANTIL($A$5:$A$10004;0.15) E32= QUANTIL($A$5:$A$10004;0.2) E33= QUANTIL($A$5:$A$10004;0.25) E34= QUANTIL($A$5:$A$10004;0.3) E35= QUANTIL($A$5:$A$10004;0.35) E36= QUANTIL($A$5:$A$10004;0.4) E37= QUANTIL($A$5:$A$10004;0.45) E38= QUANTIL($A$5:$A$10004;0.5) E39= QUANTIL($A$5:$A$10004;0.55) E40= QUANTIL($A$5:$A$10004;0.6) E41= QUANTIL($A$5:$A$10004;0.65) E42= QUANTIL($A$5:$A$10004;0.7) E43= QUANTIL($A$5:$A$10004;0.75) E44= QUANTIL($A$5:$A$10004;0.8) E45= QUANTIL($A$5:$A$10004;0.85) E46= QUANTIL($A$5:$A$10004;0.9) E47= QUANTIL($A$5:$A$10004;0.95)

Datei: atRISK_Bsp_Grafiken.xls; Daten

168

Leitfaden @RISK

atRISK_Bsp_Grafiken.xls F G H I J

Xprob-Anhang

D E 49 50 Daten für die Grafiken: 51 52 lfd. Nr. (von 0 bis=...) Obere Intervallgrenze 100 53 54 0 55 1 56 2 57 3 58 4 59 5 60 6 61 7 62 8 63 9 64 10 65 11 66 12 67 13 68 14 69 15 70 16 71 17 72 18 73 19 74 20 75 21 76 22 77 23 78 24 79 25 80 26 81 27 82 28 83 29 84 30 85

Intervallmitte

Anz. Beob. Im Intervall Abs. Häufigkeit Rel. Häufigkeit

Dichte

Verteilungsfunktion Rel. kumulierte Häufigkeit

0.00 0.24 0.48 0.72 0.96 1.20 1.44 1.68 1.92 2.16 2.40 2.64 2.88 3.12 3.36 3.60 3.84 4.08 4.32 4.56 4.80 5.04 5.28 5.52 5.76 6.00 6.24 6.48 6.72 6.96 7.20

0.12 0.36 0.6 0.84 1.08 1.32 1.56 1.8 2.04 2.28 2.52 2.76 3 3.24 3.48 3.72 3.96 4.2 4.44 4.68 4.92 5.16 5.4 5.64 5.88 6.12 6.36 6.6 6.84 7.08

0 0 0 0 0 0 0 1 0 2 15 17 30 50 66 80 84 137 124 127 142 170 188 187 203 193 193 219 186 175 174

0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.02% 0.00% 0.04% 0.30% 0.34% 0.60% 1.00% 1.32% 1.60% 1.68% 2.74% 2.48% 2.54% 2.84% 3.40% 3.76% 3.74% 4.06% 3.86% 3.86% 4.38% 3.72% 3.50% 3.48%

0.000 0.000 0.000 0.000 0.000 0.000 0.001 0.000 0.002 0.013 0.014 0.025 0.042 0.055 0.067 0.070 0.114 0.103 0.106 0.118 0.142 0.157 0.156 0.169 0.161 0.161 0.183 0.155 0.146 0.145

0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.00% 0.02% 0.02% 0.06% 0.36% 0.70% 1.30% 2.30% 3.62% 5.22% 6.90% 9.64% 12.12% 14.66% 17.50% 20.90% 24.66% 28.40% 32.46% 36.32% 40.18% 44.56% 48.28% 51.78% 55.26%

Datei: atRISK_Bsp_Grafiken.xls; Daten

169

Leitfaden @RISK

atRISK_Bsp_Grafiken.xls D 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 E 7.44 7.68 7.92 8.16 8.40 8.64 8.88 9.12 9.36 9.60 9.84 10.08 10.32 10.56 10.80 11.04 11.28 11.52 11.76 12.00 12.24 12.48 12.72 12.96 13.20 13.44 13.68 13.92 14.16 14.40 14.64 14.88 15.12 15.36 15.60 F 7.32 7.56 7.8 8.04 8.28 8.52 8.76 9 9.24 9.48 9.72 9.96 10.2 10.44 10.68 10.92 11.16 11.4 11.64 11.88 12.12 12.36 12.6 12.84 13.08 13.32 13.56 13.8 14.04 14.28 14.52 14.76 15 15.24 15.48 G 153 152 155 141 117 114 117 103 106 84 78 85 81 77 62 62 38 54 34 35 36 35 24 30 32 19 28 11 11 14 13 12 12 9 9 H 3.06% 3.04% 3.10% 2.82% 2.34% 2.28% 2.34% 2.06% 2.12% 1.68% 1.56% 1.70% 1.62% 1.54% 1.24% 1.24% 0.76% 1.08% 0.68% 0.70% 0.72% 0.70% 0.48% 0.60% 0.64% 0.38% 0.56% 0.22% 0.22% 0.28% 0.26% 0.24% 0.24% 0.18% 0.18% I 0.128 0.127 0.129 0.118 0.097 0.095 0.097 0.086 0.088 0.070 0.065 0.071 0.067 0.064 0.052 0.052 0.032 0.045 0.028 0.029 0.030 0.029 0.020 0.025 0.027 0.016 0.023 0.009 0.009 0.012 0.011 0.010 0.010 0.007 0.007 J

Xprob-Anhang

86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120

58.32% 61.36% 64.46% 67.28% 69.62% 71.90% 74.24% 76.30% 78.42% 80.10% 81.66% 83.36% 84.98% 86.52% 87.76% 89.00% 89.76% 90.84% 91.52% 92.22% 92.94% 93.64% 94.12% 94.72% 95.36% 95.74% 96.30% 96.52% 96.74% 97.02% 97.28% 97.52% 97.76% 97.94% 98.12%

Datei: atRISK_Bsp_Grafiken.xls; Daten

170

Leitfaden @RISK

atRISK_Bsp_Grafiken.xls D 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 E 15.84 16.08 16.32 16.56 16.80 17.04 17.28 17.52 17.76 18.00 18.24 18.48 18.72 18.96 19.20 19.44 19.68 19.92 20.16 20.40 20.64 20.88 21.12 21.36 21.60 21.84 22.08 22.32 22.56 22.80 23.04 23.28 23.52 23.76 24.00 F 15.72 15.96 16.2 16.44 16.68 16.92 17.16 17.4 17.64 17.88 18.12 18.36 18.6 18.84 19.08 19.32 19.56 19.8 20.04 20.28 20.52 20.76 21 21.24 21.48 21.72 21.96 22.2 22.44 22.68 22.92 23.16 23.4 23.64 23.88 G 10 8 4 10 6 7 6 5 5 4 4 3 2 0 1 3 1 1 0 2 0 1 1 0 1 1 0 0 0 0 2 0 0 1 1 H 0.20% 0.16% 0.08% 0.20% 0.12% 0.14% 0.12% 0.10% 0.10% 0.08% 0.08% 0.06% 0.04% 0.00% 0.02% 0.06% 0.02% 0.02% 0.00% 0.04% 0.00% 0.02% 0.02% 0.00% 0.02% 0.02% 0.00% 0.00% 0.00% 0.00% 0.04% 0.00% 0.00% 0.02% 0.02% I 0.008 0.007 0.003 0.008 0.005 0.006 0.005 0.004 0.004 0.003 0.003 0.002 0.002 0.000 0.001 0.002 0.001 0.001 0.000 0.002 0.000 0.001 0.001 0.000 0.001 0.001 0.000 0.000 0.000 0.000 0.002 0.000 0.000 0.001 0.001 J

Xprob-Anhang

121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157

98.32% 98.48% 98.56% 98.76% 98.88% 99.02% 99.14% 99.24% 99.34% 99.42% 99.50% 99.56% 99.60% 99.60% 99.62% 99.68% 99.70% 99.72% 99.72% 99.76% 99.76% 99.78% 99.80% 99.80% 99.82% 99.84% 99.84% 99.84% 99.84% 99.84% 99.88% 99.88% 99.88% 99.90% 99.92%

Datei: atRISK_Bsp_Grafiken.xls; Daten

171

Leitfaden @RISK

atRISK_Bsp_Grafiken.xls F
Zelle= Formel

Xprob-Anhang

D E 158 159 Berechnungen: 160 161 Zeile 55: 162 Startnummer (Intervallzähler) 163 Untere Intervallgrenze des ersten Intervalls 164 Anz. Beob. bis untere Grenze des ersten Intervalls 165 Rel. Häufigkeit bis untere Grenze des ersten Intervalls 166 167 Zeile 56: (Die Zeilen 57 bis 155 sind entsprechend zu kopieren) 168 Intervallzähler 169 Obere Intervallgrenze 170 Intervallmitte 171 Anz. Beobachtungen im Intervall, abs. Häufigkeit 172 Relative Häufigkeit [%] 173 Dichte 174 Verteilungsfunktion, rel. kumulierte Häufigkeit [%] 175

G

H

I

J

D55= 0 E55= $E$11+$D55*($E$12-$E$11)/$D$53 G55= HÄUFIGKEIT($A$5:$A$10004;$E$55:$E$155) J55= $G55/$E$20

D56= $D55+1 E56= $E$11+$D56*($E$12-$E$11)/$D$53 F56= ($E55+$E56) / 2 G56= HÄUFIGKEIT($A$5:$A$10004;$E$55:$E$155) H56= $G56/$E$20 I56= $H56/($E56-$E55) J56= $J55+$H56 Bereichsfunktion!

Datei: atRISK_Bsp_Grafiken.xls; Daten

172

Leitfaden @RISK

atRISK_Bsp_Grafiken.xls D E
Dateityp Punkt (XY) eine Datenreihe: Datenreihen Name= $E$9 X-Werte= $F$56:$F$155 Y-Werte= $I$56:$I$155 Intervallmitten Dichte

Xprob-Anhang

176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208

F

G

H
Optionen

I

J

Grafiken: Dichte Funktion

Interpoliert, ohne Datenpukte Kein Gitternetz Kein Gitternetz Keine Legende Keine Datenbeschriftungen

Dichte Histogramm

Säule, gruppiert eine Datenreihe:

Name= $E$9 Werte= $I$56:$I$155 Beschriftung X-Achse= $E$55:$E$154 Dichte untere Intervallgrenzen Kein Gitternetz Kein Gitternetz Keine Legende Keine Datenbeschriftung Keine Datentabelle

Datenreihenformat:

Überlappung= 0 Abstand= 0

Kein Rahmen Kein Fehlerindikator Interpoliert, ohne Datenpukte obere Intervallgrenzen Verteilungsfunktion Gitternetz Gitternetz Keine Legende Keine Datenbeschriftungen

Verteilungsfunktion

Punkt (XY) eine Datenreihe:

Name= $E$9 X-Werte= $E$55:$E$155 Y-Werte= $J$55:$J$155

Verteilung Histogramm

Säule, gruppiert eine Datenreihe:

Name= $E$9 Werte= $J$56:$J$155 Beschriftung X-Achse= $E$55:$E$154 Verteilungsfunktion untere Intervallgrenzen Gitternetz Kein Gitternetz Keine Legende Keine Datenbeschriftung Keine Datentabelle

Datenreihenformat:

Überlappung= 0 Abstand= 0

Kein Rahmen Kein Fehlerindikator

Datei: atRISK_Bsp_Grafiken.xls; Daten

173

Leitfaden @RISK

atRISK_Bsp_Grafiken

Xprob-Anhang

Cd-Aufnahme Nahrung
0.20

0.18

0.16

0.14

0.12 Dichte

0.10

0.08

0.06

0.04

0.02

0.00 0.0
Datei: atRISK_Bsp_Grafiken.xls; Dichte_Funktion

5.0

10.0

15.0

20.0

25.0

30.0
]

174

Leitfaden @RISK

atRISK_Bsp_Grafiken.xls

Xprob-Anhang

Cd-Aufnahme Nahrung
0.20

0.18

0.16

0.14

0.12 Dichte

0.10

0.08

0.06

0.04

0.02

0.00 0.0 2.4 4.8 7.2 9.6 12.0 14.4 16.8 19.2 21.6

Datei: atRISK_Bsp_Grafiken.xls; Dichte_Histogramm

175

Leitfaden @RISK

atRISK_Bsp_Grafiken.xls

Xprob-Anhang

Cd-Aufnahme Nahrung
100%

90%

80%

70% Verteilungsfunktion

60%

50%

40%

30%

20%

10%

0% 0.0
Datei: atRISK_Bsp_Grafiken.xls; Verteilungsfunktion

5.0

10.0

15.0

20.0

25.0

30.0

176

Leitfaden @RISK

atRISK_Bsp_Grafiken.xls

Xprob-Anhang

Cd-Aufnahme Nahrung
120%

100%

80% Verteilungsfunktion

60%

40%

20%

0% 0.0 2.4 4.8 7.2 9.6 12.0 14.4 16.8 19.2 21.6

Datei: atRISK_Bsp_Grafiken.xls; Verteilung_Histogramm

177

Leitfaden @RISK

atRISK_Bsp_Grafiken.xls F G H I Berechnungen:
Eingaben: Titelzeile Startwert x-Achse Endwert x-Achse Datenbereich Referenzlinien für 1. p-Wert 2. p-Wert x-Wert Ausgaben: G26 G29 G32 G13 G15 G17 A1:A10000

Xprob-Anhang

J
Zelle= Formel

K

L

12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49

Angaben für die Grafik:
Titel= Cd-Aufnahme Nahrung x-Achse (bitte in Größenordnungen) von= 1.000 von (korrigiert)= 1.000 bis= 30.000 bis (korrigiert)= 100.000 Grafikbereich von= 0% bis= 100% Anteil abgebild. Daten= 100%

Referenzlinien:
p-Wert= zugehöriges Quantil= p-Wert= zugehöriges Quantil= x-Wert= zugehöriger p-Wert= Median= Mittel= 5.00% 3.578 90.00% 11.306 10.000 83% 6.825 7.413

Korr. Startwert x-Achse Korr. Endwert x-Achse Anteil Beob. unterh. Startwert Anteil Beob. oberh. Startwert Anteil abgebild. Daten Quantil zum 1. p-Wert Quantil zum 2. p-Wert p zum x-Wert Median Mittelwert= Anzahl Beobachtungen Minimum Maximum

G16= 10^RUNDEN(LOG(MIN(MAX($G$15;0.001);$G$27;$G$30;$G$32;$G$35;$G$36))-0.4999;0) G18= 10^RUNDEN(LOG(MAX($G$17;$G$27;$G$30;$G$32;$G$35;$G$36))+0.4999;0) G20= WENN($G$16>$G$41;QUANTILSRANG($A$1:$A$10000;$G$16);0) G21= WENN($G$18<$G$42;QUANTILSRANG($A$1:$A$10000;$G$18);1) G22= $G$21-$G$20 G27= QUANTIL($A$1:$A$10000;$G$26) G30= QUANTIL($A$1:$A$10000;$G$29) G33= WENN($G$32<$G$42;QUANTILSRANG($A$1:$A$10000;$G$32);1) G35= MEDIAN($A$1:$A$10000) G36= MITTELWERT($A$1:$A$10000) G40= ANZAHL($A$1:$A$10000) G41= MIN($A$1:$A$10000) G42= MAX($A$1:$A$10000)

Kennzahlen der Daten:
Anzahl= Minimum= Maximum= 5000 1.521 25.407

Koordinaten der Referenzlinien:
0 1

1.Quantil 3.578 3.578

2.Quantil 11.306 11.306

x-Wert 10.000 10.000

Median 6.825 6.825

Mittel 7.413 7.413

Datei: atRISK_Bsp_Grafiken.xls; GeordDaten

178

Leitfaden @RISK

atRISK_Bsp_Grafiken.xls H
Formel

Xprob-Anhang

F G 50 Berechnungen: Zelle= 51 52 Zeile 1: B1= 53 gestutzte Beobachtung C1= 54 lfd. Nummer der Beob. D1= 55 Anteil kleinerer Beob. 56 57 Zeile 2: (Die Zeilen 3 bis 10000 sind entsprechend zu kopieren) B2= 58 gestutzte Beobachtung C2= 59 lfd. Nummer der Beob. D2= 60 Anteil kleinerer Beob.[%] 61 Dateityp 62 Grafik: 63 Punkt (XY) 64 Verteilungsfunktion erste Datenreihe 65 logarithmierte Absz. 66 67 68 69 zweite Datenreihe 70 71 72 73 dritte Datenreihe 74 75 76 77 vierte Datenreihe 78 79 80 81 fünfte Datenreihe 82 83 84 85 sechste Datenreihe 86 87 88 89 90

I

J

K

L

WENN($A$1>$G$16;WENN($A$1<$G$18;$A$1;$G$18);$G$16) 1 $C$1/$G$40

WENN($A2>$G$16;WENN($A2<$G$18;$A2;$G$18);$G$16) $C1+1 $C$2/$G$40 Datenreihen Name= X-Werte= Y-Werte= $G$13 $B$1:$B$10000 $D$1:$D$10000 gest. Beob. Anteile Optionen interpoliert, ohne Datenpunkte logarithmiert, Gitternetz Gitternetz, schwarz, durchgezogen Legende unten keine Datenbeschriftungen Name= X-Werte= Y-Werte= Name= X-Werte= Y-Werte= Name= X-Werte= Y-Werte= Name= X-Werte= Y-Werte= Name= X-Werte= Y-Werte= $G$26 $G$47:$G$48 $F$47:$F$48 $G$29 $H$47:$H$48 $F$47:$F$48 $G$32 $I$47:$I$48 $F$47:$F$48 Median $J$47:$J$48 $F$47:$F$48 Mittel $K$47:$K$48 $F$47:$F$48 =$G$36 blau, gestrichelt =$G$35 blau, durchgezogen x-Wert =$G$32 grün, durchgezogen p-Wert =$G$30 rot, gestrichelt p-Wert =$G$27 rot, durchgezogen

Datei: atRISK_Bsp_Grafiken.xls; GeordDaten

179

Leitfaden @RISK

atRISK_Bsp_Grafiken.xls

Xprob-Anhang

Verteilungsfunktion (mit logarithmischer Abszisse)
100% 90% 80% 70% 60% Anteil 50% 40% 30% 20% 10% 0% 1 Cd-Aufnahme Nahrung
Datei: atRISK_Bsp_Grafiken.xls; Verteilung_log

10 5.00%
180

100 10.000 Median Mittel

90.00%

A6 Liste der Veröffentlichungen des Xprob-Projektes
Berichte
1 Mekel, O., Mosbach-Schulz, O. (Hrsg.) (2005): Xprob - Evaluation von Standards und Modellen zur probabilistischen Expositionsabschätzung - Dokumentation des 2. projektbegleitenden Workshops - am 24. und 25. Mai 2005 im Umweltbundesamt, Berlin. Materialien Umwelt und Gesundheit 59. Landesinstitut für den Öffentlichen Gesundheitsdienst NRW, Bielefeld (vii + 284 S.) Mekel, O., Okken, P. (Hrsg.) (2004): 1. Workshop zur bevölkerungsbezogenen Expositionsabschätzung - Datengrundlagen und probabilistische Methoden - am 29. und 30. Januar 2004 im Umweltbundesamt, Berlin. Materialien Umwelt und Gesundheit 44. Landesinstitut für den Öffentlichen Gesundheitsdienst NRW, Bielefeld (viii + 132 S.)

2

Kurzbeiträge, Abstracts, Vorträge, Poster etc.
1 Mekel, O.C.L., Mosbach-Schulz, O., Schümann, M., Okken, P.K., Peters, C., Herrmann, J., Hehl, O., Bubenheim, M., Wintermeyer, D., Fehr, R., Timm, J. (2006): Distributional exposure reference values for Germany. ISEE/ISEA Conference, September 2-6, Paris. Abstract: ISEE/ISEA Abstract Book, afsset, Paris: 455. Mosbach-Schulz, O., Herrmann, J., Timm, J., Bubenheim, M., Mekel, O.C.L., Okken, P.K., Peters, C., Schümann, M., (2006): Unsupervised fit of distributions for probabilistic exposure factors. ISEE/ISEA Conference, September 2-6, Paris. Abstract: ISEE/ISEA Abstract Book, afsset, Paris: 484. Mekel, O. (2005): Abschluss: Xprob – Forschungsprojekt zur bevölkerungsbezogenen Expositionsabschätzung. Info-Brief Umweltmedizin, Umwelthygiene, lögd, Bielefeld, Heft 2/2005: 14-17. Mekel, O., Okken. P.K. (2005): Schlussphase: Neues aus dem Projekt Xprob. InfoBrief Umweltmedizin, Umwelthygiene, lögd, Bielefeld, Heft 1/2005:17-18. Mosbach-Schulz, O., Berichterstatter für Xprob-Konsortium (2005): Ableitung von Standards der Expositionsabschätzung - Ergebnisse des Xprob-Projekts. Beitrag auf der 8. Sitzung der Länderarbeitsgruppe für umweltbezogenen Gesundheitsschutz (LAUG) am 19./20 September 2005 in Bremen. Mosbach-Schulz, O., Okken, P.K., Wintermeyer, D., Mekel, O., Schümann, M., Hehl, O., Herrmann, J., Peters, C., Bubenheim, M., Fehr, R., Timm, J. (2005): Xprob - Forschungsprojekt zur bevölkerungsbezogenen Expositionsabschätzung. Umweltmedizinischer Informationsdienst, UMID 4/2005: 10-13. Schümann, M., Mosbach-Schulz, O., Mekel, O., Bubenheim, M., Fehr, R., Hehl, O., Okken, P., Herrmann, J., Peters, C., Timm, J. (2005): Ableitung von Standards der Expositionsabschätzung - Ergebnisse des Xprob-Projekts. 12. Jahrestagung der Deutschen Arbeitsgemeinschaft für Epidemiologie (dae) 14.-15.09.2005, Freiburg.

2

3

4 5

6

7

1

2

Anhang
Abstract: Klar, R. et al. (Hrsg.) Tagungsband gmds/dae-Tagung 2005. Freiburg: 481-482.

8

Mekel, O., Schümann, M., Mosbach-Schulz, O., Okken, P., Hermann, J., Peters, C., Bubenheim, M., Hehl, O., Fehr, R., Timm, J. (2005): Current work in Germany on probabilistic exposure assessment: the Xprob-project. Global Net on Consumer Exposure Modelling – Workshop on Exposure Related Data. Commission of the European Communities, Joint Research Centre, Institute for Health and Consumer Protection, Physical & Chemical Exposure Unit, Exposure Modelling Sector. 23 June 2005, Intra/Verbania (I). Mekel, O. (2005): Evaluation von Standards und Modellen zur probabilistischen Expositionsabschätzung (Xprob) - Surveydaten als Grundlage der Ableitung von aktuellen Expositionsstandards. Public Health Forum 13 (47) (2005), 34-35.

9

10 Okken, P.K., Mekel, O., Mosbach-Schulz, O., Wintermeyer, D., Schümann, M., Herrmann, J., Fehr, R., Hehl, O., Peters, C., Bubenheim, M., Timm, J. (2004): Xprob - Forschungsprojekt zur bevölkerungsbezogenen Expositionsabschätzung. Umweltmedizinischer Informationsdienst 2004, (3/2004): 41-44. 11 Mekel, O.C.L., Schümann, M., Mosbach-Schulz, O., Hehl, O., Okken, P.K., Herrmann, J., Peters, C., Wintermeyer, D., Bubenheim, M., Fehr, R., Timm, J. (2004): Evaluation of exposure factors and models for probabilistic exposure assessment – the Xprob-Project. IVSS Expertenworkshop "Modelle und Berechnungsverfahren zur Ermittlung von Gefahrstoffexpositionen", 23.-24. September 2004, Dresden. 12 Schümann, M., Mosbach-Schulz, O., Mekel, O., Bubenheim, M., Fehr, R., Hehl, O., Okken, P., Herrmann, J., Peters, C., Timm, J. (2004): Surveydaten als Grundlage der Ableitung von aktuellen Expositionsstandards. Wissenschaftliche Jahrestagung der Deutschen Gesellschaft für Sozialmedizin und Prävention, 22-25/09.2004, Magdeburg. Abstract: Das Gesundheitswesen 66 (2004), Heft 8/9, lfd.Nr.38. 13 Mekel, O.C.L., Schümann, M., Mosbach-Schulz, O., Hehl, O., Okken, P.K., Herrmann, J., Peters, C., Wintermeyer, D., Bubenheim, M. (2004): Exposure factors and models for probabilistic exposure modelling – the XPROB-Project. X2004 Conference 16.-18. June 2004 Utrecht, Abstract: Tijdschrift voor toegepaste Arbowetenschap (2004-02) supplement: 29-30. 14 Okken, P., Mekel, O. (2003a): Start des Projektes Xprob: "Evaluation von Standards und Modellen zur probabilistischen Expositionsabschätzung". Info-Brief Umweltmedizin, Umwelthygiene, lögd, Bielefeld, Heft 1/03: 9. 15 Okken, P. Mekel, O. (2003b): Stand des Projektes „Evaluation von Standards und Modellen zur probabilistischen Expositionsabschatzung“ (Xprob) Info-Brief Umweltmedizin, Umwelthygiene, lögd, Bielefeld, Heft 2/03: 6.
        
Top of page

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.