A Family Of Estimators Of Population Mean Using Information On Point Bi-Serial and Phi Correlation Coefficient
AA Family of Estimators of Population Mean Using Information on Point Bi-Serial and Phi Correlation Coefficient
Sachin Malik and
Rajesh Singh * Department of Statistics, Banaras Hindu University Varanasi-221005, India *Corresponding Author ([email protected], [email protected])
ABSTRACT
This paper deals with the problem of estimating the finite population mean when some information on two auxiliary attributes are available. It is shown that the proposed estimator is more efficient than the usual mean estimator and other existing estimators. The study is also extended to two-phase sampling. The results have been illustrated numerically by taking empirical population considered in the literature.
Key words : Simple random sampling, auxiliary attribute, point bi-serial correlation, phi correlation, efficiency.
Mathematics subject classification number:
62 DO5
Journal of Economic Literature (JEL) Classification Number: C831. INTRODUCTION
There are some situations when in place of one auxiliary attribute, we have information on two qualitative variables. For illustration, to estimate the hourly wages we can use the information on marital status and region of residence (see Gujrati and Sangeetha (2007), page-311). Here we assume that both auxiliary attributes have significant point bi-serial correlation with the study variable and there is significant phi-correlation (see Yule (1912)) between the auxiliary attributes. The use of auxiliary information can increase the precision of an estimator when study variable Y is highly correlated with auxiliary variables X. Naik and Gupta (1996) introduced a ratio estimator when the study variable and the auxiliary attribute are positively correlated. Jhajj et al. (2006) suggested a family of estimators for the population mean in single and two phase sampling when the study variable and auxiliary attribute are positively correlated. Shabbir and Gupta (2007), Singh et al. (2008), Singh et al. (2010) and Abd-Elfattah et al. (2010) have considered the problem of estimating population mean Y taking into consideration the point biserial correlation between auxiliary attribute and study variable. n order to have an estimate of the study variable y, assuming the knowledge of the population proportion P, Naik and Gupta (1996) and Singh et al. (2007) respectively proposed following estimators (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7)(cid:8) pPyt (1.1) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7)(cid:8) Ppyt (1.2) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:9)(cid:10)(cid:8)
11 113 pP pPexpyt (1.3) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:9)(cid:10)(cid:8)
22 224
Pp Ppexpyt (1.4) The bias and MSE expression’s of the estimator’s i t (i=1, 2, 3, 4) up to the first order of approximation are, respectively, given by (cid:11) (cid:12) (cid:13) (cid:14) pb2p11 K1CfYtB (cid:10)(cid:8) (1.5) (cid:11) (cid:12) C KfYtB (cid:8) (1.6) (cid:11) (cid:12) (cid:15)(cid:16)(cid:17)(cid:18)(cid:19)(cid:20) (cid:10)(cid:8) pb2p13 K412CfYtB (1.7) (cid:11) (cid:12) (cid:15)(cid:16)(cid:17)(cid:18)(cid:19)(cid:20) (cid:9)(cid:8) pb2p14 K412CfYtB (1.8) MSE (cid:11) (cid:12) (cid:11) (cid:12) (cid:13) (cid:14) pb2p2y121 K21CCfYt (cid:10)(cid:9)(cid:8) (1.9) MSE (cid:11) (cid:12) (cid:11) (cid:12) (cid:13) (cid:14) pb2p2y122 K21CCfYt (cid:9)(cid:9)(cid:8) (1.10) MSE (cid:11) (cid:12) (cid:15)(cid:16)(cid:17)(cid:18)(cid:19)(cid:20) (cid:2)(cid:3)(cid:4)(cid:5)(cid:6)(cid:7) (cid:10)(cid:9)(cid:8) pb2p2y123 K41CCfYt (1.11)
International Journal of Statistics and Economics76
MSE (cid:11) (cid:12) (cid:15)(cid:16)(cid:17)(cid:18)(cid:19)(cid:20) (cid:2)(cid:3)(cid:4)(cid:5)(cid:6)(cid:7) (cid:9)(cid:9)(cid:8) pb2p2y124 K41CCfYt (1.12)where, (cid:11) (cid:12) (cid:11) (cid:12) (cid:11) (cid:12) ,PYy1N1S ,P1N1S , N1-n1 f
N1i jjiiy2N1i jji21 jj (cid:21)(cid:21) (cid:8)(cid:22)(cid:8)(cid:22) (cid:10)(cid:22)(cid:10)(cid:10)(cid:8)(cid:10)(cid:22)(cid:10)(cid:8)(cid:8) ),2,1j(; P SC, Y SC, SS S jjpyyyypb jjjj (cid:8)(cid:8)(cid:8)(cid:8)(cid:23) (cid:22)(cid:22)(cid:22) .CCK,CCK pypbpbpypbpb (cid:23)(cid:8)(cid:23)(cid:8) (cid:11) (cid:12)(cid:11) (cid:12)
21 2121 sss and pp1n 1s n1i 2i21i1 (cid:22)(cid:22) (cid:22)(cid:22)(cid:22)(cid:8)(cid:22)(cid:22) (cid:8)(cid:23)(cid:10)(cid:22)(cid:10)(cid:22)(cid:10)(cid:8) (cid:21) be the sample phi-covariance and phi-correlation between (cid:22) and (cid:22) respectively, corresponding to the population phi-covariance and phi-correlation (cid:11) (cid:12)(cid:11) (cid:12) (cid:21) (cid:8)(cid:22)(cid:22) (cid:10)(cid:22)(cid:10)(cid:22)(cid:10)(cid:8) N1i 2i21i1
PP1N1S
21 21
SSSand (cid:22)(cid:22) (cid:22)(cid:22)(cid:22) (cid:8)(cid:23)
Following Naik and Gupta (1996) and Singh et al. (2007), we propose the estimators t and t as pPpPyt (cid:24)(cid:24) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7)(cid:8) (1.13)
22 2211 116
Pp PpexppP pPexpyt (cid:25)(cid:25) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:9)(cid:10)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:9)(cid:10)(cid:8) (1.14) where ,, (cid:25)(cid:24)(cid:24) and (cid:25) are real constants.
2. BIAS AND MSE of t and t To obtain the bias and MSE of the estimators t and t to the first degree of approximation, we define P Ppe,P Ppe,YYye (cid:10)(cid:8)(cid:10)(cid:8)(cid:10)(cid:8)
International Journal of Statistics and Economics77 uch that, .2,1,0i ;0)e(E i (cid:8)(cid:8) Also, ,Cf)e(E,Cf)e(E,Cf)e(E (cid:8)(cid:8)(cid:8) ,CKf)ee(E,CKf)ee(E (cid:8)(cid:8) ,CKf)ee(E (cid:22) (cid:8) CCK,CCK,CCK (cid:22)(cid:22) (cid:23)(cid:8)(cid:23)(cid:8)(cid:23)(cid:8)
Expressing equation (1.13) in terms of e’s, we have (cid:11) (cid:12)(cid:11) (cid:12) (cid:11) (cid:12) (cid:13) (cid:14) e1e1e1Yt (cid:24)(cid:10)(cid:24)(cid:10) (cid:9)(cid:9)(cid:9)(cid:8) (cid:11) (cid:12) (cid:11) (cid:12) (2.1) eeeeeee2 1e2 1ee1Y (cid:15)(cid:16)(cid:17)(cid:18)(cid:19)(cid:20) (cid:24)(cid:10)(cid:24)(cid:10)(cid:24)(cid:24)(cid:9)(cid:9)(cid:24)(cid:24)(cid:9)(cid:9)(cid:24)(cid:24)(cid:9)(cid:24)(cid:10)(cid:24)(cid:10)(cid:8) Subtracting Y from both the sides of equation (2.1) and then taking expectation of both sides, we get the bias of the estimator ,t up to the first order of approximation, as (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:15)(cid:15)(cid:16)(cid:17)(cid:18)(cid:18)(cid:19)(cid:20) (cid:24)(cid:24)(cid:9)(cid:24)(cid:10)(cid:24)(cid:9)(cid:24)(cid:9)(cid:15)(cid:15)(cid:16)(cid:17)(cid:18)(cid:18)(cid:19)(cid:20) (cid:24)(cid:10)(cid:24)(cid:9)(cid:24)(cid:8) (cid:22) kk22Ck22CfY)t(B (2.2)From (2.1), we have (cid:13) (cid:14) eeeY)Yt( (cid:24)(cid:10)(cid:24)(cid:10)(cid:8)(cid:10) (2.3)Squaring both sides of (2.3) and then taking expectation, we get, MSE of the estimator t , up to the first order of approximation, as (cid:11) (cid:12) (cid:11) (cid:12) (cid:13) (cid:14) (cid:22) (cid:24)(cid:24)(cid:9)(cid:24)(cid:10)(cid:24)(cid:9)(cid:24)(cid:10)(cid:24)(cid:9)(cid:8) K2K2CK2CCfY)t(MSE (2.4)To obtain the bias and MSE of ,t to the first order of approximation, we express equation (1.14) in term of e’s, as International Journal of Statistics and Economics78 (cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:9)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:9)(cid:10)(cid:9)(cid:8) (cid:25)(cid:25) e2 eexpe2 eexpe1Yt (cid:15)(cid:16)(cid:17)(cid:18)(cid:19)(cid:20) (cid:25)(cid:10)(cid:25)(cid:9)(cid:25)(cid:9)(cid:25)(cid:25)(cid:10)(cid:25)(cid:10)(cid:25)(cid:9)(cid:25)(cid:10)(cid:9)(cid:8) (2.5) Subtracting Y from both sides of equation (2.5) and then taking expectation of both sides, we get the bias of the estimator t up to the first order of approximation, as (cid:15)(cid:15)(cid:16)(cid:17)(cid:18)(cid:18)(cid:19)(cid:20) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:25)(cid:25)(cid:10)(cid:25)(cid:9)(cid:25)(cid:9)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:25)(cid:10)(cid:25)(cid:8) (cid:22) K4K24CK24CfY)t(B (2.6) From (2.5), we have (cid:15)(cid:16)(cid:17)(cid:18)(cid:19)(cid:20) (cid:25)(cid:10)(cid:25)(cid:10)(cid:8)(cid:10) (2.7) Squaring both sides of (2.7) and then taking expectation, we get the MSE of the estimator t up to the first order of approximation, as
3. ANOTHER ESTIMATOR
Following Naik and Gupta (1996) and Singh et al. (2007), we propose another improved estimator t p as- (2.8) KK24CK4CCfY)t(MSE pb221222ppb1212p2y126 (cid:15)(cid:15)(cid:16)(cid:17)(cid:18)(cid:18)(cid:19)(cid:20) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:25)(cid:9)(cid:25)(cid:25)(cid:10)(cid:25)(cid:9)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:25)(cid:10)(cid:25)(cid:9)(cid:8) (cid:22) International Journal of Statistics and Economics79
22 2211 112221110p
Pp PpexppP pPexpywpPpPywywt (cid:25)(cid:25)(cid:24)(cid:24) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:9)(cid:10)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:9)(cid:10)(cid:9)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7)(cid:9)(cid:8) (3.1)where , , (cid:25)(cid:24)(cid:24) and (cid:25) are real constants and )2,1,0i(w i (cid:8) are suitably chosen constants whose values are to be determined later. Expressing (3.1) in terms of e’s, we have (cid:11) (cid:12) (cid:11) (cid:12) (cid:11) (cid:12) (cid:15)(cid:16)(cid:17)(cid:18)(cid:19)(cid:20) (cid:2)(cid:3)(cid:4)(cid:5)(cid:6)(cid:7) (cid:25)(cid:2)(cid:3)(cid:4)(cid:5)(cid:6)(cid:7) (cid:25)(cid:10)(cid:9)(cid:9)(cid:9)(cid:9)(cid:9)(cid:8) (cid:24)(cid:10)(cid:24)(cid:10) (3.2) Expanding the right hand side of equation (3.2) and retaining terms, up to second power of e’s, we have (cid:11) (cid:12) (cid:11) (cid:12) (cid:18)(cid:19)(cid:20) (cid:2)(cid:3)(cid:4)(cid:5)(cid:6)(cid:7) (cid:24)(cid:10)(cid:24)(cid:10)(cid:24)(cid:24)(cid:9)(cid:24)(cid:10)(cid:24)(cid:10)(cid:24)(cid:9)(cid:24)(cid:9)(cid:24)(cid:9)(cid:24)(cid:9)(cid:9)(cid:8) eeeeeeeee21e21we1Yt (cid:15)(cid:15)(cid:16)(cid:17)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:25)(cid:9)(cid:25)(cid:9)(cid:25)(cid:9)(cid:25)(cid:25)(cid:10)(cid:25)(cid:10)(cid:25)(cid:10)(cid:25)(cid:9) (3.3) Subtracting Y from both sides of (3.3) and then taking expectation of both sides, we get the bias of the estimator ,t p up to the first order of approximation as (cid:11) (cid:12) (cid:26)(cid:27)(cid:26)(cid:28)(cid:29) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:15)(cid:15)(cid:16)(cid:17)(cid:18)(cid:18)(cid:19)(cid:20) (cid:24)(cid:24)(cid:9)(cid:24)(cid:10)(cid:24)(cid:9)(cid:24)(cid:9)(cid:15)(cid:15)(cid:16)(cid:17)(cid:18)(cid:18)(cid:19)(cid:20) (cid:24)(cid:10)(cid:24)(cid:9)(cid:24)(cid:8) (cid:22) kk22Ck22CwfYtB (cid:26)(cid:30)(cid:26)(cid:31) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:15)(cid:15)(cid:16)(cid:17)(cid:18)(cid:18)(cid:19)(cid:20) (cid:25)(cid:25)(cid:10)(cid:25)(cid:9)(cid:25)(cid:9)(cid:15)(cid:15)(cid:16)(cid:17)(cid:18)(cid:18)(cid:19)(cid:20) (cid:25)(cid:10)(cid:25)(cid:9) (cid:22) k4k24Ck24Cw (3.4) From (3.3), we have (cid:11) (cid:12) (cid:15)(cid:16)(cid:17)(cid:18)(cid:19)(cid:20) (cid:2)(cid:3)(cid:4)(cid:5)(cid:6)(cid:7) (cid:25)(cid:9)(cid:25)(cid:10)(cid:9)(cid:24)(cid:10)(cid:24)(cid:10)(cid:9)(cid:8)(cid:10) (3.5) International Journal of Statistics and Economics80 quaring both sides of (3.6) and then taking expectation, we get MSE of the estimator p t up to the first order of approximation, as (cid:11) (cid:12) (cid:13) (cid:14) AwwAwAw2AwAwCfYtMSE (cid:9)(cid:10)(cid:10)(cid:9)(cid:9)(cid:8) (3.6) where, (cid:26)(cid:26)(cid:30)(cid:26)(cid:26)(cid:31) (cid:10)(cid:10)(cid:8) (cid:10)(cid:10)(cid:8)
AAA4 AAAA4w AAA4 AAAA4w (3.7)and (cid:13) (cid:14) (cid:26)(cid:26)(cid:26)(cid:26)(cid:26)(cid:30)(cid:26)(cid:26)(cid:26)(cid:26)(cid:26)(cid:31) (cid:25)(cid:24)(cid:10)(cid:25)(cid:24)(cid:9)(cid:25)(cid:24)(cid:10)(cid:25)(cid:24)(cid:8) (cid:25)(cid:10)(cid:25)(cid:8) (cid:24)(cid:9)(cid:24)(cid:8) (cid:25)(cid:25)(cid:10)(cid:25)(cid:9)(cid:25)(cid:8) (cid:24)(cid:24)(cid:9)(cid:24)(cid:9)(cid:24)(cid:8) (cid:22)(cid:22)(cid:22)(cid:22)
CkCkCCA CkCkA CkCkA Ck2Cc41A Ck2CCA (3.8)
4. EMPIRICAL STUDY
Data: (Source: Government of Pakistan (2004)) The population consists rice cultivation areas in 73 districts of Pakistan. The variables are defined as: Y= rice production (in 000’ tonnes, with one tonne = 0.984 ton) during 2003, P = production of farms where rice production is more than 20 tonnes during the year 2002, and P = proportion of farms with rice cultivation area more than 20 hectares during the year 2003. For this data, we have N=73, Y =61.3, P =0.4247, P =0.3425, S =12371.4, S (cid:22) =0.225490, S (cid:22) =0.228311, pb (cid:23) =0.621, pb (cid:23) =0.673, (cid:22) (cid:23) =0.889. International Journal of Statistics and Economics81 able 4.1: PRE of different estimators of Y with respect to y Choice of scalars w w w (cid:24) (cid:24) (cid:25) (cid:25) Estimator MSE PRE’S y t t t t t t w w w p t
5. DOUBLE SAMPLING
It is assumed that the population proportion P for the first auxiliary attribute (cid:22) is unknown but the same is known for the second auxiliary attribute (cid:22) . When P is unknown, it is some times estimated from a preliminary large sample of size n ! on which only the attribute (cid:22) is measured. Then a second phase sample of size n (n< n ! ) is drawn and Y is observed. Let ).2,1j(,n1p n1i jij (cid:8)(cid:22)(cid:8)! (cid:21) !(cid:8) The estimator’s t , t , t and t in two-phase sampling take the following form (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7)(cid:8) ppyt (5.1) International Journal of Statistics and Economics82 (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7)(cid:8) '222d pPyt (5.2) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:9)(cid:10)(cid:8) pp ppexpyt (5.3) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:9)(cid:10)(cid:8)
Pp Ppexpyt (5.4) The bias and MSE expressions of the estimators t d1 , t d2 , t d3 and t d4 up to first order of approximation, are respectively given as (cid:11) (cid:12) (cid:13) (cid:14) pb2p31d k1CfYtB (cid:10)(cid:8) (5.5) (cid:11) (cid:12) (cid:13) (cid:14) pb2p22d K1CfYtB (cid:10)(cid:8) (5.6) (cid:11) (cid:12) (cid:13) (cid:14) pb2p33d K14CfYtB (cid:10)(cid:8) (5.7) (cid:11) (cid:12) (cid:13) (cid:14) pb22p34d K14CfYtB (cid:9)(cid:8) (5.8) MSE (cid:11) (cid:12) (cid:11) (cid:12) (cid:13) (cid:14) pb2P32y121d K21CfCfYt (cid:10)(cid:9)(cid:8) (5.9) MSE (cid:11) (cid:12) (cid:11) (cid:12) (cid:13) (cid:14) kp2p22y122d K21CfCfYt (cid:10)(cid:9)(cid:8) (5.10) MSE (cid:11) (cid:12) (cid:11) (cid:12) (cid:15)(cid:15)(cid:16)(cid:17)(cid:18)(cid:18)(cid:19)(cid:20) (cid:10)(cid:9)(cid:8) pb2p32y123d K414CfCfYt (5.11) MSE (cid:11) (cid:12) (cid:11) (cid:12) (cid:15)(cid:15)(cid:15)(cid:16)(cid:17)(cid:18)(cid:18)(cid:18)(cid:19)(cid:20) (cid:9)(cid:9)(cid:8) pb2p32y124d K414CfCfYt (5.12) where,
International Journal of Statistics and Economics83 (cid:12) p1n 1S J (cid:21) (cid:8)(cid:22) (cid:10)(cid:22)(cid:10)(cid:8) , (cid:11) (cid:12) ,p1n 1S
2n 1i 'jji'2' !j (cid:21) (cid:8)(cid:22) (cid:10)(cid:22)(cid:10)(cid:8) ,N1n1f '2 (cid:10)(cid:8) .n1n1f '3 (cid:10)(cid:8) The estimator’s t and t , in two phase sampling, takes the following form m1'15d ppyt (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7)(cid:8) m'22 pP (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (5.13) (cid:8) t n1'1 1'1 pp ppexpy (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:9)(cid:10) n2'2 2'2 Pp Ppexp (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:9)(cid:10) (5.14)Where m , m , n and n are real constants.
6. BIAS AND MSE OF t and t To obtain the bias and MSE of t and t up to first degree of approximation, we define YYye o (cid:10)(cid:8) , P Ppe (cid:10)(cid:8) , P Ppe (cid:10)(cid:8) (cid:11) (cid:12) (cid:8) o eE ,that Such (cid:11) (cid:12) (cid:8) '1 eE (cid:11) (cid:12) .oeE '2 (cid:8) Also, (cid:11) (cid:12)
CfeE (cid:8) , (cid:11) (cid:12) CfeE (cid:8) , ,CfeE (cid:8)(cid:2)(cid:3)(cid:4)(cid:5)(cid:6)(cid:7) (cid:11) (cid:12) CfeeE (cid:8) , (cid:11) (cid:12) CKfeeE (cid:8) , (cid:11) (cid:12) .CKfeeE (cid:8) Expressing equation (5.13) in terms of e’s, we have t (cid:11) (cid:12) (cid:11) (cid:12) (cid:11) (cid:12) (cid:11) (cid:12) m'2m1m'1o e1e1e1e1Y (cid:10)(cid:10) (cid:9)(cid:9)(cid:9)(cid:9)(cid:8) Expanding the right hand side of above equation and retaining terms up to second power of e’s, we have
International Journal of Statistics and Economics84 (cid:11) (cid:12) (cid:11) (cid:12)(cid:11) (cid:12) (cid:15)(cid:16)(cid:17)(cid:10)(cid:9)(cid:10)(cid:9)(cid:9)(cid:10)(cid:9)(cid:18)(cid:19)(cid:20) (cid:10)(cid:9)(cid:10)(cid:9)(cid:9)(cid:10)(cid:9)(cid:8) '202'1010112'222'22'11 2'111'2121211111od eemeemeeme2 1mmemem e2 1mmeeme2 1mmeme1Yt (6.1)Subtracting Y from both sides of (6.1) and then taking expectation, we get the bias of the estimator ,t up to the first order of approximation, as (cid:11) (cid:12) (6.2) km2m2mCfKm2m2mCfYtB pb22222P2pb11212p35d (cid:15)(cid:16)(cid:17)(cid:18)(cid:19)(cid:20) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:10)(cid:9)(cid:9)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:10)(cid:9)(cid:8) From (5.1), we have (cid:13) (cid:14) '22'111105d ememmeeY)Yt( (cid:10)(cid:9)(cid:10)(cid:8)(cid:10) (6.3) Squaring both sides of (6.3) and then taking expectations, we get MSE of the estimator t d5 , up to the first order of approximation, as (cid:11) (cid:12) (cid:11) (cid:12) (cid:11) (cid:12) (cid:13) (cid:14) pb2222 2p2pb1212p32y15d Km2mCfKm2mCfCfYtMSE (cid:10)(cid:9)(cid:10)(cid:9)(cid:8) (6.4) Now to obtain the bias and MSE of t d6 to the first order of approximation, we express equation (5.14) in terms of e’s (cid:11) (cid:12) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7)(cid:2)(cid:3)(cid:4)(cid:5)(cid:6)(cid:7) (cid:10)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7)(cid:9)(cid:8) '2211'1106d Expanding the right hand side of above equation and retaining terms up to second power of e’s, we have (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) !(cid:9)(cid:10)!(cid:9)!(cid:9)(cid:9)(cid:9)(cid:10)(cid:9)(cid:9)(cid:8) (6.5) Subtracting Y from both sides of (6.5) and then taking expectations, we get the bias of the estimator t up to the first order of approximation, as (cid:11) (cid:12) (cid:15)(cid:16)(cid:17)(cid:18)(cid:19)(cid:20) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:9)(cid:9)(cid:9)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:10)(cid:9)(cid:8) pb222222ppb112136d K2n8n8nfCK2n8n8nfYtB (6.6)
International Journal of Statistics and Economics85 rom (6.5), we have (cid:2)(cid:3)(cid:4)(cid:5)(cid:6)(cid:7) !(cid:9)(cid:10)!(cid:9)(cid:8)(cid:10) (6.7)Squaring both sides of (6.7) and then taking expectations, we get the MSE of t d6 up to the first order of approximation, as (cid:11) (cid:12) (cid:15)(cid:16)(cid:17)(cid:18)(cid:19)(cid:20) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:9)(cid:9)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:10)(cid:9)(cid:8) CKn4nfCKn4nfCfYtMSE (6.8)
7. IMPROVED ESTIMATOR t p IN TWO-PHASE SAMPLING
The estimator t p in double sampling is written as (7.1) Pp Ppexppp ppexphpPppyhyht n2'2 2'2n1'1 1'12m'22m1110pd (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:9)(cid:10)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:9)(cid:10)(cid:9)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) !(cid:9)(cid:8) where, n,m,m and n are real constants and )2,1,0i(h i (cid:8) are suitably chosen constants whose values are to be determined later.Expressing (7.1) in terms of e’s, we have (cid:11) (cid:12) (cid:11) (cid:12) (cid:11) (cid:12) m2m1m110pd e1e1e1yhyht (cid:10)(cid:10) !(cid:9)(cid:9)!(cid:9)(cid:9)(cid:8) (cid:2)(cid:3)(cid:4)(cid:5)(cid:6)(cid:7) !(cid:2)(cid:3)(cid:4)(cid:5)(cid:6)(cid:7) (cid:10)(cid:2)(cid:3)(cid:4)(cid:5)(cid:6)(cid:7) !(cid:9) (7.2) Expanding the right hand side of (7.2) and retaining terms up to second power of e’s as (cid:11) (cid:12) (cid:11) (cid:12) (cid:18)(cid:19)(cid:20) (cid:5)(cid:6)(cid:7) (cid:9)(cid:10)(cid:9)(cid:10)(cid:10)(cid:10)(cid:9)(cid:9)(cid:9)(cid:8) '11'111'112210111211110pd eme2 21mmeemeememe2 1mmhe1Yt (cid:11) (cid:12) (cid:2)(cid:3)(cid:4)(cid:9)(cid:9)(cid:10)(cid:10)(cid:9) '222'202'22'101 e2 1mmeememeem (cid:15)(cid:15)(cid:16)(cid:17)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) !(cid:9)(cid:10)!(cid:9)!(cid:9)(cid:9)(cid:9)(cid:10)(cid:9) (7.3) International Journal of Statistics and Economics86 ubtracting Y from both the sides of (7.3) then taking expectations on both the sides, we get the bias of the estimator d t up to the first order of approximation as (cid:15)(cid:15)(cid:16)(cid:17)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:10)(cid:9)(cid:9)(cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:10)(cid:9)(cid:9) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:10)(cid:9)(cid:9)(cid:18)(cid:18)(cid:19)(cid:20) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:10)(cid:9)(cid:9)(cid:8) pb22222p23pb11212p33 pb22222p21pb11212p31pd k2n8n8nCfhK2n8n8nCfh km2m2mCfhKm2m2mCfhY)t(B (7.4)From (7.3), we have (cid:11) (cid:12) (cid:15)(cid:15)(cid:16)(cid:17)(cid:18)(cid:18)(cid:19)(cid:20) (cid:2)(cid:2)(cid:3)(cid:4)(cid:5)(cid:5)(cid:6)(cid:7) (cid:9)(cid:10)(cid:9)(cid:10)(cid:9)(cid:10)(cid:9)(cid:8)(cid:10) '2211'112'21'111110pd (7.5)Squaring both sides of (7.5) and then taking expectations, we get MSE of the estimator pd t up to the first order of approximation as (cid:11) (cid:12) (cid:13) (cid:14) BhhBhBh2BhBhCfYtMSE (cid:9)(cid:10)(cid:10)(cid:9)(cid:9)(cid:8) (7.6)Where, (cid:26)(cid:26)(cid:30)(cid:26)(cid:26)(cid:31) (cid:10)(cid:10)(cid:8) (cid:10)(cid:10)(cid:8)
BBB4 BB2BB2h BBB4 BBBB4h (7.7)and (cid:13) (cid:14) (cid:26)(cid:26)(cid:26)(cid:26)(cid:26)(cid:30)(cid:26)(cid:26)(cid:26)(cid:26)(cid:26)(cid:31) (cid:10)(cid:8) (cid:10)(cid:8) (cid:9)(cid:8) (cid:9)(cid:8) (cid:9)(cid:8)
21 2211 2211 12 12
CmnfCmnfB CknfCknfB CkmfCkmfB CnfCnf41B CmfCmfB (7.8)
International Journal of Statistics and Economics87 . EMPIRICAL STUDY
Data: (Source: Singh and Chaudhary (1986), P. 177). The population consists of 34 wheat farms in 34 villages in certain region of India. The variables are defined as: y = area under wheat crop (in acres) during 1974. p = proportion of farms under wheat crop which have more than 500 acres land during 1971. and p = proportion of farms under wheat crop which have more than 100 acres land during 1973. For this data, we have N=34, Y =199.4, P =0.6765, P =0.7353, S =22564.6, S (cid:22) =0.225490, S (cid:22) =0.200535, pb (cid:23) =0599, pb (cid:23) =0.559, (cid:22) (cid:23) =0.725. Table 7.1: PRE of different estimators of Y with respect to y Choice of scalars h h h m m n n Estimator MSE PRE’S y t t t t t d t h h h pd t International Journal of Statistics and Economics88 . Conclusion
In this paper, we have suggested a class of estimators in single and double sampling by using point bi serial correlation and phi correlation coefficient. From Table 4.1 and Table 7.1, we observe that the proposed estimator t p and its double sampling version t pd , performs better than other estimators considered in this paper.
10. REFERENCES