Blog
  • INWT
  • Blog: Data & Analytics

Welche Koalition wird Deutschland nach der Bundestagswahl regieren?

Di 27 Jun 2017·von Marcus Groß

In Zusammenarbeit mit den Politikberatern der de'ge'pol haben wir unsere Prognose zur Bundestagswahl mit Expertenmeinungen zu den Koalitionsbildungschancen kombiniert. Dies lässt uns fundierte Wahrscheinlichkeitsaussagen darüber treffen, welche Koalition bzw. welcher Kanzler Deutschland nach der Bundestagswahl regieren wird.

 

Wer gewinnt die Bundestagswahl 2017?

Mo 20 Mär 2017·von Marcus Groß

Dieser Artikel präsentiert die Wahlprognose von INWT zur Bundestagswahl am 24.09.2017. Vorgestellt wird ein statistisches Prognosemodell, das auf den Umfrageergebnissen führender deutscher Umfrageinstitute beruht. Anders als Meinungsforschungsinstitute können wir mit unserer Wahlprognose auch eine Vorhersage über die Wahrscheinlichkeit von möglichen Koalitionen nach der Wahl treffen. 

MariaDB-Monitor

Di 07 Mär 2017·von Martin H. Badicke

MariaDB ist aktuell die am schnellsten wachsende Open-Source-Datenbanklösung. Sie wird hauptsächlich von der MariaDB Corporation entwickelt und ist ein Fork von MySQL. Dieser Artikel beschreibt eine selbstentwickelte Lösung zum Überwachen und Optimieren des Datenbanksystems: den MariaDB-Monitor. Es handelt sich dabei um eine Alternative zu existierenden kostenpflichtigen oder weniger flexiblen Monitoring-Tools.

Clusteranalyse in R

Mi 10 Feb 2016·von Sarah Wagner

Anschließend an den letzten Artikel "Clusteranalyse" wird die Theorie nun mithilfe der Statistikumgebung R in die Praxis umgesetzt.

Clusteranalyse

Mo 04 Jan 2016·von Sarah Wagner

Die Clusteranalyse dient zum Auffinden von Gruppenstrukturen in Daten. Dieser Artikel gibt einen Überblick über die gängigsten Verfahren und zeigt, wie gefundene Clusterlösungen validiert werden können.

Logistische Regression - Beispiel in R

Di 28 Jul 2015·von Sarah Wagner

Dieser Artikel zeigt anhand eines realen Datensatzes Schritt für Schritt die Durchführung einer logistischen Regression und die Beurteilung der Modellgüte mithilfe der Open Source-Statistikumgebung "R".

Logistische Regression - Beurteilung der Klassifikationsgüte

Di 21 Jul 2015·von Marcus Groß

Nachdem man ein Modell gefunden hat, das das Eintreten eines Ereignisses vorhersagt, ist es angebracht, die Vorhersagequalität bzw. Modellgüte zu bestimmen. In diesem Artikel werden die Klassifikationstabelle und die sich daraus ableitenden Gütemaße sowie die Receiver Operating Characteristic (ROC) Kurve näher beleuchtet.

Logistische Regression - Modell und Grundlagen

Mi 15 Jul 2015·von Sarah Wagner

Das logistische Regressionsmodell (kurz: "Logit-Modell") wird zur Modellierung von binären Zielvariablen (z.B. 0 = Kunde kauft, 1 = Kunde kauft nicht) verwendet. Der Artikel gibt eine Einführung ins Logit-Modell und dessen Anwendung.

Big Data richtig nutzen

Di 14 Apr 2015·von Amit Ghosh

Die Erfahrung zeigt es: Um von Big Data tatsächlich zu profitieren, sollten die Werbeversprechen der Hersteller hinterfragt werden. Darüber hinaus gibt der letzte Teil der Artikelserie zum Thema "Big Data" Hinweise, um Projekte richtig zu planen und zum Erfolg zu führen.

Big Data - Erfolgsgeschichten

Di 14 Apr 2015·von Amit Ghosh

In Zusammenhang mit "Big Data" werden häufig immer die selben Erfolgsgeschichten angeführt. Dieser Teil der Artikelserie beleuchtet diese Geschichten.

Big Data - nur Gewinner?

Di 14 Apr 2015·von Amit Ghosh

„Big Data” ist einer der dominierenden Trends in der IT, der auch das Motto der CeBiT 2014 prägte und in den letzten Jahren zu einem regelrechten Hype geworden ist. Doch was verbirgt sich hinter dem Begriff und gibt es wirklich nur Gewinner?

Best Practice TV-Tracking: Warum eine einfache Baseline-Korrektur zu kurz greift!

Mo 30 Mär 2015·von Steffen Wagner

In der gängigen Online-Marketing-Praxis wird der kurzfristig durch TV-Werbung induzierte Webseiten-Traffic üblicherweise durch eine einfache Baseline-Korrektur quantifiziert. Wir zeigen in unserem Blog-Artikel, welche Messfehler damit einhergehen, wie sie sich vermeiden lassen und wie der identifizierte TV-Impact richtig in der Attribution berücksichtigt wird.

Fragebogenkonstruktion: 20 Tipps für einen besseren Fragebogen

Do 11 Sep 2014·von Verena Pflieger

20 Tipps, die Ihnen helfen, die gröbsten Fehler zu umschiffen und einen besseren Fragebogen zu konstruieren.

Fragebogenkonstruktion: Die häufigsten Fehler

Do 04 Sep 2014·von Verena Pflieger

Bei der Fragebogenkonstruktion ist vieles zu beachten. Dieser Artikel gibt einen Überblick über die häufigsten Fehler.

Beispielregression: Zunge vs. Zahlen

Mo 18 Aug 2014·von Sarah Wagner

Als Beispiel für eine multiple lineare Regression dient die Frage, welche Faktoren die Qualität von Wein beeinflussen. Beantwortet hat sie Orley Ashenfelter, ein Professor für Ökonomie.

Multiple lineare Regression

Mo 11 Aug 2014·von Sarah Wagner

In der Praxis spielt bei der Bestimmung der abhängigen Variablen y oft mehr als nur eine unabhängige Variable x eine Rolle, so dass wir uns jetzt dem multiplen linearen Regressionsmodell und seinen Eigenschaften zuwenden.

Einfache lineare Regression

Mo 04 Aug 2014·von Sarah Wagner

Die Durchführung einer Regression (lat. regredi = zurückgehen) hat das Ziel, anhand von mindestens einer unabhängigen Variablen x (auch erklärende Variable genannt) die Eigenschaften einer anderen abhängigen Variablen y zu prognostizieren.

Bestimmtheitsmaß R² - Teil 5: Wie hoch muss mein R² sein?

Fr 18 Jul 2014·von Verena Pflieger

Wie hoch muss das Bestimmtheitsmaß R² sein? Das kommt auf Fachgebiet und Analyseebene an.

Bestimmtheitsmaß R² - Teil 4: Das korrigierte R²

Mo 14 Jul 2014·von Verena Pflieger

Das korrigierte Bestimmtheitsmaß R²: Modellanpassung und Sparsamkeit berücksichtigen.

Bestimmtheitsmaß R² - Teil 3: Die Varianzzerlegung

Mo 07 Jul 2014·von Verena Pflieger

Wie hängen das Bestimmtheitsmaß R² und die Varianzzerlegung zusammen?

Bestimmtheitsmaß R² - Teil 2: Was ist das eigentlich, ein R²?

Mo 30 Jun 2014·von Verena Pflieger

Wie ist das R² definiert und wie wird der Wert des R² interpretiert?

Bestimmtheitsmaß R² - Teil 1: Worum es eigentlich geht...

Mo 23 Jun 2014·von Verena Pflieger

Das R² ist ein Gütemaß der linearen Regression. Doch wie interpretiert man das R² und was ist ein guter Wert?

Hundert Gramm LEGO, bitte.

Mi 28 Mai 2014·von Steffen Wagner

Eine statistische Analyse von über 150 Lego-Bausätzen zeigt, dass der Preis einzelner Legobauteile nicht nur durch deren Größe, sondern maßgeblich durch die Zugehörigkeit zu bestimmten Lego-Themenwelten, wie z.B. Star Wars, erklärt werden kann.

Mehr als nur Panel-Analysen: STATA

Do 13 Mär 2014·von Sebastian Warnholz

STATA ist eines der kommerziell vermarkteten Statistik-Programme und wird von der StataCorp vertrieben und weiterentwickelt. Als sicherlich eines der bekannteren Statistik-Programme bietet STATA vom Umfang und der Handhabung her viele Vorteile.

Statistik für Dummies: SPSS

Mo 24 Feb 2014·von Amit Ghosh

SPSS ist eines der ältesten Statistik-Programme am Markt. Ursprünglich wurde SPSS von der eigenständigen Firma „SPSS Inc.“ Ende der 60er Jahre entwickelt. Der Name stand für „Statistical Package for the Social Sciences” und tatsächlich ist SPSS im Bereich der Sozialwissenschaft das dominierende Tool für statistische Analysen.

Der Mercedes unter den Statistik-Programmen: SAS

Mo 27 Jan 2014·von Marcus Groß

SAS ist eine kommerzielle Statistik-Software, die vom amerikanischen Unternehmen SAS Institute entwickelt wird. Neben statistischen Analysen bietet die Software von SAS Institute für den Anwender unter anderem auch Business Intelligence, Data Mining, Risikomanagement und Unternehmenssteuerung. Durch diese vielfältigen Erweiterungsmöglichkeiten – insbesondere hinsichtlich des Datenmanagements – ist SAS als all-in-one Lösungen bei Großunternehmen sehr beliebt.

Wie viele Daten benötigt ein Unternehmen tatsächlich?

Fr 06 Dez 2013·von Martin H. Badicke

Aktuell ist Big Data in aller Munde. Mit dem technologischen Fortschritt einhergehend sammeln immer mehr Unternehmen Unmengen an Daten. Dabei bedeuten größere Datenmengen nicht automatisch einen höheren Informationsgehalt.

Die mächtige Open Source-Lösung: R

Fr 08 Nov 2013·von Amit Ghosh

Der dritte Teil der Artikelserie zu Statistik-Software nimmt die Open Source-Statistik-Umgebung R unter die Lupe. R bietet eine umfassende Methodenunterstützung, eignet sich hervorragend zur Automatisierung von Prozessen und ist ungeschlagen hinsichtlich der Integrierbarkeit mit Anwendungen von Drittanbietern.

Statistik-Software: R, SAS, SPSS und STATA im Vergleich

Do 24 Okt 2013·von Amit Ghosh

Der zweite Teil der Artikelserie zu Statistik-Programmen stellt die Marktführer R, SAS, SPSS und STATA vor und bietet eine Entscheidungshilfe.

Checkliste für die Anschaffung von Statistik-Software

Mo 21 Okt 2013·von Amit Ghosh

Welche Kriterien sollten bei der Auswahl einer Statistik-Software berücksichtigt werden? Die gängigen Statistik-Programm-Pakete unterscheiden sich hinsichtlich ihrer Stärken und Schwächen wie auch in ihrer Handhabung mitunter ganz erheblich. Die Entscheidung für ein System sollte gut überlegt sein. Ein nachträglicher Wechsel verursacht hohe Kosten für neue Lizenzen und die Umschulung der Mitarbeiter. Dieser Artikel arbeitet eine Checkliste aus, anhand derer sich die Alternativen hinsichtlich der individuellen Anforderungen bewerten lassen.

Case-Study Zeitreihenanalyse: Welchen Einfluss hat TV-Werbung auf Online-Traffic?

Mo 23 Sep 2013·von Steffen Wagner

Ein wesentlicher Vorteil des Online-Marketings besteht in der Messbarkeit der Werbewirkung der eingesetzten Mittel. Besteht der Marketingmix darüber hinaus aus Online- und Offline-Werbung, so stellt sich die Frage nach dem Impact der Offline-Werbung auf das Online-Geschäft. Am Beispiel der TV-Werbewirkung auf die Besucherzahlen eines Online-Auftritts wird gezeigt, wie mittels Zeitreihenzerlegung der Offline-Online-Impact messbar wird.

Data-Profiling: Weiterführende Analysen auf Tabellen- und Datensatz-Ebene

Mo 05 Aug 2013·von Martin H. Badicke

Mit Analysen auf Tabellen- und Datensatz-Ebene können im Data-Profiling-Prozess Informationen zu Inhalt, Struktur und Qualität von Daten gewonnen werden. In diesem Artikel wird eine Auswahl von Analysen vorgestellt.

Data-Profiling: Attributanalyse auf Basis von Geschäftsregeln

Mo 05 Aug 2013·von Martin H. Badicke

Mit Attributanalysen auf Basis von Geschäftsregeln können im Data-Profiling-Prozess Informationen zu Inhalt, Struktur und Qualität von Daten gewonnen werden. In diesem Artikel wird eine Auswahl von Analysen vorgestellt.

Data-Profiling: Standardanalysen auf Attributebene

Mo 05 Aug 2013·von Martin H. Badicke

Mit der Analyse von Attributen können im Data-Profiling-Prozess Informationen zu Inhalt, Struktur und Qualität von Daten gewonnen werden. In diesem Artikel wird eine Auswahl von Standardanalysen vorgestellt.

Data-Profiling zu Beginn von Projekten mit Datenbezug

Do 01 Aug 2013·von Martin H. Badicke

Für eine realistische Planung von Projekten werden verlässliche Aussagen über die Qualität von Daten benötigt. Eine frühzeitige Untersuchung der Datenqualität bewahrt vor unerwünschten Überraschungen, die den Aufwand des Projektes vergrößern und geplante Termine nach hinten verschieben können.

Pflege und Überwachung von Datenqualität

Mi 19 Jun 2013·von Martin H. Badicke

Qualitativ schlechte Daten können sich im Unternehmen auf verschiedene Ebenen auswirken und je nachdem kurzfristige oder längerfristige Entscheidungen maßgeblich beeinflussen. Um Fehlentscheidungen zu vermeiden, ist eine Überwachung und Steuerung der Datenqualität notwendig. 

Klassifikation der Datenqualität

Di 11 Jun 2013·von Martin H. Badicke

Datenqualität darf nicht ausschließlich aus der technischen Perspektive betrachtet werden, sondern muss auch über den Inhalt der Daten bestimmt werden.

Datenqualität

Mo 10 Jun 2013·von Martin H. Badicke

Im Informationszeitalter trägt Datenqualität entscheidend zum wirtschaftlichen Erfolg eines Unternehmens bei. Fehlerhafte, ungenaue und fehlende Daten führen zu fehlerhaften Informationen und beeinflussen damit negativ die Entscheidungen innerhalb eines Unternehmens.

Mehr Daten = bessere Prognose?

Fr 27 Apr 2012·von Amit Ghosh

Anders als im klassischen Marketing, in dem Daten meist Mangelware darstellen, verfügt man im Online-Marketing über riesige Datenbestände. Auch wenn die oft Terabyte großen Logfiles und Datenbanken bisher kaum genutzt wurden, herrschen Pioniergeist und Optimismus vor.

Beurteilung von Placements aus statistischer Sicht - Teil 2: Das Modell

Fr 30 Mär 2012·von Amit Ghosh

Im zweiten Teil der Artikelserie zur Beurteilung von Placements im Display-Advertising wird ein statistisches Modell vorgestellt, welches die Beurteilung von Placements schneller als konventionelle Ansätze ermöglicht. Das Modell unterstützt dabei auch die Aufdeckung von Fraud. Die frühzeitige Identifikation von nicht-performanten Placements ermöglicht z.T. erhebliche Kosteneduktion durch Ausschluss dieser Placements aus den Kampagnen.

Beurteilung von Placements aus statistischer Sicht - Teil 1: Grundlagen

Fr 23 Mär 2012·von Amit Ghosh

Ein Vorteil des Online-Marketings ist - entsprechende Technologie vorausgesetzt - die direkte Messbarkeit des Werbeerfolgs. Der erste Teil der Artikelserie beschäftigt sich mit den Grundlagen der Beurteilung von Placements im Display-Advertising. Im zweiten Teil wird ein statistisches Modell vorgestellt, welches die Beurteilung von Placements schneller als konventionelle Ansätze ermöglicht.

Repräsentativität – Teil 4: Was es zu beachten gilt

Mo 13 Feb 2012·von Amit Ghosh

Journalistisch sauber herausgearbeitet wird der Unterschied zwischen Repräsentativität und Präzision in einer unterhaltsamen Meldung der Süddeutschen Zeitung über das Umfragetief der FDP.

Repräsentativität – Teil 3: Welche Rolle spielt der Stichprobenumfang?

Mo 06 Feb 2012·von Amit Ghosh

Beständig hält sich das Gerücht, dass die Frage der Repräsentativität primär mit dem Stichprobenumfang (häufig in der Statistik kurz als „n“ bezeichnet) zusammenhängt.

Repräsentativität – Teil 2: Die Stichprobe ist entscheidend.

Mo 30 Jan 2012·von Amit Ghosh

Entscheidend für die Frage der Repräsentativität ist die Stichprobenziehung.

Repräsentativität – Teil 1: Worum es eigentlich geht…

Mo 23 Jan 2012·von Amit Ghosh

Gerade in Zusammenhang mit Umfragen wird der Begriff der „Repräsentativität“ inflationär gebraucht. Hartnäckig hält sich das Gerücht, dass Repräsentativität primär eine Frage des Stichprobenumfangs sei.