Network


Latest external collaboration on country level. Dive into details by clicking on the dots.

Hotspot


Dive into the research topics where Ralf Münnich is active.

Publication


Featured researches published by Ralf Münnich.


Journal of Official Statistics | 2014

The Impact of Sampling Designs on Small Area Estimates for Business Data

Jan Pablo Burgard; Ralf Münnich; Thomas Zimmermann

Abstract Evidence-based policy making and economic decision making rely on accurate business information on a national level and increasingly also on smaller regions and business classes. In general, traditional design-based methods suffer from low accuracy in the case of very small sample sizes in certain subgroups, whereas model-based methods, such as small area techniques, heavily rely on strong statistical models. In small area applications in business statistics, two major issues may occur. First, in many countries business registers do not deliver strong auxiliary information for adequate model building. Second, sampling designs in business surveys are generally nonignorable and contain a large variation of survey weights. The present study focuses on the performance of small area point and accuracy estimates of business statistics under different sampling designs. Different strategies of including sampling design information in the models are discussed. A design-based Monte Carlo simulation study unveils the impact of the variability of design weights and different levels of aggregation on model- versus design-based estimation methods. This study is based on a close to reality data set generated from Italian business data.


AStA Wirtschafts- und Sozialstatistisches Archiv | 2013

Small Area-Statistik: Methoden und Anwendungen

Ralf Münnich; Jan Pablo Burgard; Martin Vogt

ZusammenfassungModerne Haushaltsstichproben sollen zunehmend reliable Informationen bezüglich inhaltlicher und geographischer Subgruppen liefern. Derartige Informationen werden im Allgemeinen alle zehn Jahre auf Basis von Volkszählungen gewonnen. In der aktuellen europäischen Zensus-Runde haben sich einige Länder dazu entschlossen, neue Methoden zu implementieren, welche keine vollständige Auszählung der Bevölkerung mehr benötigen.Die Schweiz und Deutschland haben sich beispielsweise für einen sogenannten registergestützten Zensus entschieden. Dabei werden zunächst Melderegisterdaten ausgewertet. Mit Hilfe einer zusätzlichen Stichprobe werden weitere Informationen gewonnen, welche auch eine statistische Korrektur möglicher Registerfehler erlauben.Dieser Paradigmenwechsel in der amtlichen Statistik erfordert aber auch eine adäquate Anpassung der statistischen Methodik. Bei Schätzungen in registergestützten Zensus interessieren dabei nicht nur die Kennwerte für die Gesamtpopulation in Deutschland, sondern auch für Kreise, Verbandsgemeinden und gegebenenfalls auch für Gemeinden; in der Schweiz analog für Kantone und Zählgemeinden.Je nach Größe dieser Gebiete können sehr kleine Teilstichprobenumfänge auftreten, in denen klassische Schätzverfahren keine ausreichende Genauigkeit mehr garantieren. Moderne Small Area-Schätzmethoden können hier von Nutzen sein.In der vorliegenden Arbeit sollen anhand geeigneter Anwendungsbeispiele aus der aktuellen Zensusforschung die Methoden und Konzepte der Small Area-Statistik motiviert und dargestellt werden. Neben der Einführung in die Basis-Modelle der Small Area-Statistik wird auch auf einige interessante Erweiterungen eingegangen. Die Methoden liefern gleichzeitig auch eine wesentliche Grundlage einer reliablen Regionalstatistik, welche präzise Statistiken für kleine Gebiete benötigt.AbstractModern household surveys increasingly provide information on subgroups as defined by content or regions. This kind of information, in general, is gained from censuses every ten years. Within the current European census round, some countries have decided to implement new methods which do not rely on a complete enumeration of the population. Switzerland and Germany, for example, are applying a register-assisted census. An exploitation of the register of residents is enriched with information gained from an additional sample. This sample also furnishes possible statistical corrections of the register. This change of paradigm in official statistics urges for adequate statistical methods. In a register-assisted census, additionally to efficient estimates at national level, reliable regional estimates are required. However, the disaggregation may result in very low sample sizes for some of the areas of interest. Whilst classical design-based methods will not produce reliable estimates for these areas, modern model-based small area methods may improve the quality of the estimates by far. The present work focuses on illustrating the small area estimation concepts and methods by two examples of recent research on register-assisted censuses. Additionally to two basic small area models, various recent extensions will be discussed. The successful application of these methods is of crucial importance for obtaining reliable regionalized statistics.


Computational Statistics & Data Analysis | 2012

Modelling over and undercounts for design-based Monte Carlo studies in small area estimation: An application to the German register-assisted census

Jan Pablo Burgard; Ralf Münnich

In a register-assisted census, the main information about the population is obtained from population registers. Additionally, a sample is drawn to allow for the estimation of population counts for variables that are not included in the registers. Typically, registers suffer from over and undercounts. The over and undercounts are not observable from the register itself. In order to evaluate relevant estimation strategies to deal with over and undercounts, a reliable data set is to be used within a comprehensive Monte Carlo simulation study. This allows for comparing different estimators in a close-to-reality framework. The reliability of the data set is crucial and thus also the correct implementation of over and undercount structures. The impact of different over and undercounts modelling strategies on the prediction of the total population in considerably small regions within a register-assisted census framework is shown.


Computational Statistics & Data Analysis | 2015

Fast integer-valued algorithms for optimal allocations under constraints in stratified sampling

Ulf Friedrich; Ralf Münnich; Sven de Vries; Matthias Wagner

In stratified random sampling, minimizing the variance of a total estimate leads to the optimal allocation. However, in practice, this original method is scarcely appropriate since in many applications additional constraints have to be considered. Three optimization algorithms are presented that solve the integral allocation problem with upper and lower bounds. All three algorithms exploit the fact that the feasible region is a polymatroid and share the important feature of computing the globally optimal integral solution, which generally differs from a solution obtained by rounding. This is in contrast to recent references which, in general, treat the continuous relaxation of the optimization problem. Two algorithms are of polynomial complexity and all of them are fast enough to be applied to complex problems such as the German Census 2011 allocation problem with almost 20,000 strata.


AStA Wirtschafts- und Sozialstatistisches Archiv | 2016

Schätzung von Holzvorräten unter Verwendung von Fernerkundungsdaten

Ralf Münnich; Julian Wagner; Joachim Hill; Johannes Stoffels; Henning Buddenbaum; Thomas Udelhoven

ZusammenfassungDie Effizienz moderner Verfahren der Datenerhebung sowie deren zugehörige Auswertung hängen immer mehr von der Güte der Vor- oder Zusatzinformationen ab. Die Verfügbarkeit von Big Data liefert heutzutage ganz neue und andersartige Möglichkeiten, Schätzungen in der amtlichen und institutionellen Statistik zu verbessern, stellt aber auch Herausforderungen an die Qualität der Resultate auf, die diskutiert werden müssen.In der Forstinventur wird schon seit einiger Zeit die Verwendung von Fernerkundungsdaten diskutiert und sogar umgesetzt. Im Rahmen dieser Arbeit werden die aktuell diskutierten Verfahren vorgestellt und konkrete Schätzungen für Rheinland-Pfalz durchgeführt. Abschließend werden die Herausforderungen an zukünftige Anwendungen vorgestellt, die sich im Rahmen von Big Data durch die allgemeine Verfügbarkeit von Satellitendaten ergeben.AbstractThe efficiency of modern data ascertainment methods as well as their evaluation rely increasingly on the accuracy of auxiliary information. In the age of Big Data, new types of data sources create opportunities to further improve the quality of estimates in official and institutional statistics. However, these data yield challenges for the quality of the output which has to be discussed.In forest inventory, the use of remote sensing data is already in discussion and in use for estimating forest biomass. Within this paper, the currently discussed methods are presented and applied to data from the federal state Rhineland-Palatinate, Germany. Within the scope of Big Data, especially the availability of remote sensing data as well as challenges for future estimation methods are discussed.


Sustainability Accounting, Management and Policy Journal | 2014

Impact of survey quality on composite indicators

Ralf Münnich; Jan Georg Seger

Purpose – The purpose of this study is to show the importance of adequately considering quality measures within the use of composite indicators (CIs). Policy support often relies on high quality indicators. Often, the underlying data of relevant indicators are coming mainly from sample surveys. Obviously, the reliability of the indicators then heavily relies on the sampling design and other quality aspects. Design/methodology/approach – Starting from the well-known work on sensitivity analysis of indicators, this study integrates the sampling process as an additional source of variability. The methodology is evaluated in a close-to-reality simulation environment using relevant and important surveys with different sampling designs. As an example, this study uses data related to the statistics of income and living conditions (SILC). The study is based on a design-based simulation framework. Findings – In general, the normalisation method is dominating as source of the total variance of CI. In our study, we ...


AStA Wirtschafts- und Sozialstatistisches Archiv | 2017

Dr. Rolf Wiegert in memoriam

Jürgen Chlumsky; Ralf Münnich; Jürgen Schmidt

Am 9. Dezember 2016 ist unser Freund und Kollege Dr. Rolf Wiegert verstorben. Für die Deutsche Statistische Gesellschaft hat er sich vor allem an der Schnittstelle zwischen amtlicher und universitärer Statistik sehr verdient gemacht. Rolf Wiegert wurde am 18. April 1931 in Essen geboren. An der Universität Bonn begann er sein Studium, das er in Tübingen in Mathematik und Volkswirtschaftslehre abschloss. In Volkswirtschaftslehre wurde er später auch promoviert. Seine Dissertationsschrift zum Thema Schätzung bei Heteroskedastizität (Wiegert 1980), die mit dem Preis der Industrieund Handelskammer Mittlerer Neckar ausgezeichnet wurde, demonstriert seine Fähigkeit, Theorie und Anwendung in besonderer Weise zu verbinden – ein Leitthema, das stets in seinen Arbeiten anzutreffen war. Nach seinem Studium war er lange Zeit für das Institut für Angewandte Wirtschaftsforschung in Tübingen tätig, zunächst als Mitarbeiter und später als Berater. Hier wirkte er an der Konzeption der ersten ökonometrischen Vierteljahresmodelle für die Bundesrepublik Deutschland mit. Mit Adolf Wagner verfasste er eine Arbeit über die Zerlegung von Preisänderungen in Einkommensund Substitutionseffekt (Wagner und Wiegert 1982).


AStA Wirtschafts- und Sozialstatistisches Archiv | 2015

Tabellenauswertungen im Zensus unter Berücksichtigung fehlender Werte

Ralf Münnich; Siegfried Gabler; Christian Bruch; Jan Pablo Burgard; Tobias Enderle; Jan-Philipp Kolb; Thomas Zimmermann

ZusammenfassungIm European Statistics Code of Practice wird neben vielen anderen Punkten eine adäquate Konkretisierung von Stichproben- und Nicht-Stichprobenfehlern empfohlen. Dies umfasst insbesondere auch eine Messung der Genauigkeit unter Berücksichtigung fehlender Werte. In der Praxis werden fehlende Werte oft mit Hilfe von Imputationsverfahren ergänzt. Dabei müssen zwei Fragestellungen beachtet werden. Zum einen entsteht die Frage, ob die ergänzten Werte plausibel sein können. Dies wird mit Editing-Verfahren überprüft. Zum anderen muss bei einer Qualitätsmessung, etwa durch Varianzschätzverfahren, der Ergänzungsprozess korrekt berücksichtigt werden. Unabhängig von der Methodik werden zumeist computerintensive Verfahren verwendet. Dabei entsteht die Frage, welche der Methoden auf großen Surveys sinnvoll angewendet werden können.Mit dem Register-gestützten Zensus 2011 wurde in Deutschland eine sehr große Erhebung durchgeführt. Im Zensusgesetz wurden konkrete Qualitätsvorgaben für die Ermittlung der Einwohnerzahl formuliert. In diesem Zusammenhang spielt die Imputation aber keine Rolle. Dagegen ist sie bei Variablen von Interesse, die nicht im Melderegister enthalten sind. Ausbildung oder Erwerbstätigkeit sind Beispiele für solche Variablen. Bisher ist die Beantwortung des Frageprogramms im Zensus verpflichtend. Sollte der Zensus in Zukunft auch einen freiwilligen Teil umfassen, so ist eine Diskussion über die Qualitätsmessung unter Berücksichtigung von fehlenden Werten unausweichlich. Der vorliegende Artikel referiert über eine Machbarkeitsstudie zur Varianzschätzung bzw. der Schätzung des mittleren quadratischen Fehlers (MSE) unter Imputation bei großen Erhebungen, mit Fokus auf einen Register-gestützten Zensus. Im Vordergrund stehen Verfahren der einfachen und multiplen Imputation im Kontext der Ergänzung plausibler Werte.AbstractThe European Statistics Code of Practice defines standards for the production of statistics, covering data quality aspects. As important items within the quality framework, sampling and non-sampling errors are covered including measuring the accuracy of statistics in the presence of missing values. In practice, missing values are often treated by using imputation methods, where two aspects should be considered. First, the plausibility of imputed values plays an important role in official statistics applications. This can be examined with editing methods. Second, measuring the accuracy e. g. via variance estimation must incorporate the randomness of the imputation process. Since all relevant methods to be considered are computer-intensive, a comparative study of the methodology must include their applicability in the presence of large surveys.The German register-assisted census 2011 has been conducted using a large sample. Accuracy goals for the census where given in the census law for the determination of the population size where imputation does not play any role. This aspect also holds for other variables in case of mandatory participation. However, in case of future censuses when some variables are based on voluntary participation, imputation has to be considered in the context of accuracy measurement as well. This paper presents the results of a feasibility study of variance or MSE estimation under imputation in large-scale surveys focusing on the register-assisted census. The main aim is to compare selected single and multiple methods considering the plausibility of imputed values.


Journal of Global Optimization | 2012

Calibration of estimator-weights via semismooth Newton method

Ralf Münnich; Ekkehard W. Sachs; Matthias Wagner

Weighting is a common methodology in survey statistics to increase accuracy of estimates or to compensate for non-response. One standard approach for weighting is calibration estimation which represents a common numerical problem. There are various approaches in the literature available, but quite a number of distance-based approaches lack a mathematical justification or are numerically unstable. In this paper we reformulate the calibration problem as a system of nonlinear equations. Although the equations are lacking differentiability properties, one can show that they are semismooth and the corresponding extension of Newton’s method is applicable. This is a mathematically rigorous approach and the numerical results show the applicability of this method.


Journal of Official Statistics | 2018

Small Area Estimation with a Lognormal Mixed Model under Informative Sampling

Thomas Zimmermann; Ralf Münnich

Abstract The demand for reliable business statistics at disaggregated levels, such as industry classes, increased considerably in recent years. Owing to small sample sizes for some of the domains, design-based methods may not provide estimates with adequate precision. Hence, modelbased small area estimation techniques that increase the effective sample size by borrowing strength are needed. Business data are frequently characterised by skewed distributions, with a few large enterprises that account for the majority of the total for the variable of interest, for example turnover. Moreover, the relationship between the variable of interest and the auxiliary variables is often non-linear on the original scale. In many cases, a lognormal mixed model provides a reasonable approximation of this relationship. In this article, we extend the empirical best prediction (EBP) approach to compensate for informative sampling, by incorporating design information among the covariates via an augmented modelling approach. This gives rise to the EBP under the augmented model. We propose to select the augmenting variable based on a joint assessment of a measure of predictive accuracy and a check of the normality assumptions. Finally, we compare our approach with alternatives in a model-based simulation study under different informative sampling mechanisms.

Collaboration


Dive into the Ralf Münnich's collaboration.

Top Co-Authors

Avatar
Top Co-Authors

Avatar
Top Co-Authors

Avatar
Top Co-Authors

Avatar
Top Co-Authors

Avatar
Top Co-Authors

Avatar
Top Co-Authors

Avatar
Top Co-Authors

Avatar
Top Co-Authors

Avatar
Top Co-Authors

Avatar
Researchain Logo
Decentralizing Knowledge