Jan Pablo Burgard
University of Trier
Network
Latest external collaboration on country level. Dive into details by clicking on the dots.
Publication
Featured researches published by Jan Pablo Burgard.
Journal of Official Statistics | 2014
Jan Pablo Burgard; Ralf Münnich; Thomas Zimmermann
Abstract Evidence-based policy making and economic decision making rely on accurate business information on a national level and increasingly also on smaller regions and business classes. In general, traditional design-based methods suffer from low accuracy in the case of very small sample sizes in certain subgroups, whereas model-based methods, such as small area techniques, heavily rely on strong statistical models. In small area applications in business statistics, two major issues may occur. First, in many countries business registers do not deliver strong auxiliary information for adequate model building. Second, sampling designs in business surveys are generally nonignorable and contain a large variation of survey weights. The present study focuses on the performance of small area point and accuracy estimates of business statistics under different sampling designs. Different strategies of including sampling design information in the models are discussed. A design-based Monte Carlo simulation study unveils the impact of the variability of design weights and different levels of aggregation on model- versus design-based estimation methods. This study is based on a close to reality data set generated from Italian business data.
AStA Wirtschafts- und Sozialstatistisches Archiv | 2013
Ralf Münnich; Jan Pablo Burgard; Martin Vogt
ZusammenfassungModerne Haushaltsstichproben sollen zunehmend reliable Informationen bezüglich inhaltlicher und geographischer Subgruppen liefern. Derartige Informationen werden im Allgemeinen alle zehn Jahre auf Basis von Volkszählungen gewonnen. In der aktuellen europäischen Zensus-Runde haben sich einige Länder dazu entschlossen, neue Methoden zu implementieren, welche keine vollständige Auszählung der Bevölkerung mehr benötigen.Die Schweiz und Deutschland haben sich beispielsweise für einen sogenannten registergestützten Zensus entschieden. Dabei werden zunächst Melderegisterdaten ausgewertet. Mit Hilfe einer zusätzlichen Stichprobe werden weitere Informationen gewonnen, welche auch eine statistische Korrektur möglicher Registerfehler erlauben.Dieser Paradigmenwechsel in der amtlichen Statistik erfordert aber auch eine adäquate Anpassung der statistischen Methodik. Bei Schätzungen in registergestützten Zensus interessieren dabei nicht nur die Kennwerte für die Gesamtpopulation in Deutschland, sondern auch für Kreise, Verbandsgemeinden und gegebenenfalls auch für Gemeinden; in der Schweiz analog für Kantone und Zählgemeinden.Je nach Größe dieser Gebiete können sehr kleine Teilstichprobenumfänge auftreten, in denen klassische Schätzverfahren keine ausreichende Genauigkeit mehr garantieren. Moderne Small Area-Schätzmethoden können hier von Nutzen sein.In der vorliegenden Arbeit sollen anhand geeigneter Anwendungsbeispiele aus der aktuellen Zensusforschung die Methoden und Konzepte der Small Area-Statistik motiviert und dargestellt werden. Neben der Einführung in die Basis-Modelle der Small Area-Statistik wird auch auf einige interessante Erweiterungen eingegangen. Die Methoden liefern gleichzeitig auch eine wesentliche Grundlage einer reliablen Regionalstatistik, welche präzise Statistiken für kleine Gebiete benötigt.AbstractModern household surveys increasingly provide information on subgroups as defined by content or regions. This kind of information, in general, is gained from censuses every ten years. Within the current European census round, some countries have decided to implement new methods which do not rely on a complete enumeration of the population. Switzerland and Germany, for example, are applying a register-assisted census. An exploitation of the register of residents is enriched with information gained from an additional sample. This sample also furnishes possible statistical corrections of the register. This change of paradigm in official statistics urges for adequate statistical methods. In a register-assisted census, additionally to efficient estimates at national level, reliable regional estimates are required. However, the disaggregation may result in very low sample sizes for some of the areas of interest. Whilst classical design-based methods will not produce reliable estimates for these areas, modern model-based small area methods may improve the quality of the estimates by far. The present work focuses on illustrating the small area estimation concepts and methods by two examples of recent research on register-assisted censuses. Additionally to two basic small area models, various recent extensions will be discussed. The successful application of these methods is of crucial importance for obtaining reliable regionalized statistics.
Computational Statistics & Data Analysis | 2012
Jan Pablo Burgard; Ralf Münnich
In a register-assisted census, the main information about the population is obtained from population registers. Additionally, a sample is drawn to allow for the estimation of population counts for variables that are not included in the registers. Typically, registers suffer from over and undercounts. The over and undercounts are not observable from the register itself. In order to evaluate relevant estimation strategies to deal with over and undercounts, a reliable data set is to be used within a comprehensive Monte Carlo simulation study. This allows for comparing different estimators in a close-to-reality framework. The reliability of the data set is crucial and thus also the correct implementation of over and undercount structures. The impact of different over and undercounts modelling strategies on the prediction of the total population in considerably small regions within a register-assisted census framework is shown.
Journal of Experimental Psychology: Human Perception and Performance | 2017
Tarini Singh; Ruth Laub; Jan Pablo Burgard; Christian Frings
Selective attention refers to the ability to selectively act upon relevant information at the expense of irrelevant information. Yet, in many experimental tasks, what happens to the representation of the irrelevant information is still debated. Typically, 2 approaches to distractor processing have been suggested, namely distractor inhibition and distractor-based retrieval. However, it is also typical that both processes are hard to disentangle. For instance, in the negative priming literature (for a review Frings, Schneider, & Fox, 2015) this has been a continuous debate since the early 1980s. In the present study, we attempted to prove that both processes exist, but that they reflect distractor processing at different levels of representation. Distractor inhibition impacts stimulus representation, whereas distractor-based retrieval impacts mainly motor processes. We investigated both processes in a distractor-priming task, which enables an independent measurement of both processes. For our argument that both processes impact different levels of distractor representation, we estimated the exponential parameter (&tgr;) and Gaussian components (&mgr;, &sgr;) of the exponential Gaussian reaction-time (RT) distribution, which have previously been used to independently test the effects of cognitive and motor processes (e.g., Moutsopoulou & Waszak, 2012). The distractor-based retrieval effect was evident for the Gaussian component, which is typically discussed as reflecting motor processes, but not for the exponential parameter, whereas the inhibition component was evident for the exponential parameter, which is typically discussed as reflecting cognitive processes, but not for the Gaussian parameter.
AStA Wirtschafts- und Sozialstatistisches Archiv | 2015
Ralf Münnich; Siegfried Gabler; Christian Bruch; Jan Pablo Burgard; Tobias Enderle; Jan-Philipp Kolb; Thomas Zimmermann
ZusammenfassungIm European Statistics Code of Practice wird neben vielen anderen Punkten eine adäquate Konkretisierung von Stichproben- und Nicht-Stichprobenfehlern empfohlen. Dies umfasst insbesondere auch eine Messung der Genauigkeit unter Berücksichtigung fehlender Werte. In der Praxis werden fehlende Werte oft mit Hilfe von Imputationsverfahren ergänzt. Dabei müssen zwei Fragestellungen beachtet werden. Zum einen entsteht die Frage, ob die ergänzten Werte plausibel sein können. Dies wird mit Editing-Verfahren überprüft. Zum anderen muss bei einer Qualitätsmessung, etwa durch Varianzschätzverfahren, der Ergänzungsprozess korrekt berücksichtigt werden. Unabhängig von der Methodik werden zumeist computerintensive Verfahren verwendet. Dabei entsteht die Frage, welche der Methoden auf großen Surveys sinnvoll angewendet werden können.Mit dem Register-gestützten Zensus 2011 wurde in Deutschland eine sehr große Erhebung durchgeführt. Im Zensusgesetz wurden konkrete Qualitätsvorgaben für die Ermittlung der Einwohnerzahl formuliert. In diesem Zusammenhang spielt die Imputation aber keine Rolle. Dagegen ist sie bei Variablen von Interesse, die nicht im Melderegister enthalten sind. Ausbildung oder Erwerbstätigkeit sind Beispiele für solche Variablen. Bisher ist die Beantwortung des Frageprogramms im Zensus verpflichtend. Sollte der Zensus in Zukunft auch einen freiwilligen Teil umfassen, so ist eine Diskussion über die Qualitätsmessung unter Berücksichtigung von fehlenden Werten unausweichlich. Der vorliegende Artikel referiert über eine Machbarkeitsstudie zur Varianzschätzung bzw. der Schätzung des mittleren quadratischen Fehlers (MSE) unter Imputation bei großen Erhebungen, mit Fokus auf einen Register-gestützten Zensus. Im Vordergrund stehen Verfahren der einfachen und multiplen Imputation im Kontext der Ergänzung plausibler Werte.AbstractThe European Statistics Code of Practice defines standards for the production of statistics, covering data quality aspects. As important items within the quality framework, sampling and non-sampling errors are covered including measuring the accuracy of statistics in the presence of missing values. In practice, missing values are often treated by using imputation methods, where two aspects should be considered. First, the plausibility of imputed values plays an important role in official statistics applications. This can be examined with editing methods. Second, measuring the accuracy e. g. via variance estimation must incorporate the randomness of the imputation process. Since all relevant methods to be considered are computer-intensive, a comparative study of the methodology must include their applicability in the presence of large surveys.The German register-assisted census 2011 has been conducted using a large sample. Accuracy goals for the census where given in the census law for the determination of the population size where imputation does not play any role. This aspect also holds for other variables in case of mandatory participation. However, in case of future censuses when some variables are based on voluntary participation, imputation has to be considered in the context of accuracy measurement as well. This paper presents the results of a feasibility study of variance or MSE estimation under imputation in large-scale surveys focusing on the register-assisted census. The main aim is to compare selected single and multiple methods considering the plausibility of imputed values.
AStA Wirtschafts- und Sozialstatistisches Archiv | 2017
Jan Pablo Burgard; Jan-Philipp Kolb; Hariolf Merkle; Ralf Münnich
Methoden, Daten, Analysen (mda) | 2011
Ralf Münnich; Siegfried Gabler; Matthias Ganninger; Jan Pablo Burgard; Jan-Philipp Kolb
Austrian Journal of Statistics | 2018
Anna-Lena Wölwer; Martin Breßlein; Jan Pablo Burgard
methods, data, analyses | 2016
Ralf Münnich; Siegfried Gabler; Matthias Ganninger; Jan Pablo Burgard; Jan-Philipp Kolb
Statistics in Transition new series | 2016
Ralf Münnich; Jan Pablo Burgard; Siegfried Gabler; Matthias Ganninger; Jan-Philipp Kolb