تجزیه و تحلیل آماری نوشتن پایان نامه و انجام تحلیل آماری برای کلیه مقاطع تحصیلی |
|||
جمعه 5 دی 1393برچسب:تحلیل تشخیصی, :: 12:12 :: نويسنده : هادی واحد پور
نظریه آغازین مربوط به آنالیز تشخیصی به دهه ۱۹۳۰ و آثار آماردان انگلیسی کارل پیرسون و دیگران در زمینه فواصل گروه ها و یا ضرایب تشابه نژادی بر می گردد.به طور خاص این تکنیک اولین بار توسط فیشر در سال ۱۹۳۶ ابداع شد و بر پایه روش شناسی مورد استفاده در رگرسیون خطی چندمتغیره یعنی جبر ماتریس ها، جهت حل معادلات خطی، توسعه یافت. روش شناسان دانشگاه هاروارد، در دهه های ۵۰ و ۶۰ علاقه ی بسیاری به این روش برای مطالعه در حوزه آموزش و پرورش و روان شناسی نشان دادند. نرم افزارهای مختلفی جهت اجرای آنالیز تشخیصی ابداع شده که SPSS یکی از آن ها می باشد. آنالیز تشخیصی راهکاری است برای آن که متغیرها را در قالب گروه های مجزا از هم تفکیک کنیم، به صورتی که هر گروه در عین اینکه با گروه دیگر شباهت و همبستگی دارد، از انسجام لازم نیز برخوردار باشد.در واقع آنالیز تشخیصی، تشخیص معادله ای است که با داشتن مشخصات هر فرد از جامعه، می توان با قرار دادن این مشخصات در آن معادله، پیش بینی کرد که وی به کدام گروه تعلق دارد. به عبارتی منظور از آنالیز تشخیصی، گروه بندی داده ها به گروه های متجانس است، به گونه ای که مشاهدات هر گروه با دیگری شبیه باشند و مشاهدات گروه های مختلف نسبت به یکدیگر کمترین شباهت را داشته باشند. لازم است گفته شود که در آنالیز تشخیصی باید از هر یک از گروه های مورد نظر نمونه های مناسبی در اختیار داشت تا بتوان با استفاده از نمونه های شناخته شده تابع تشخیص را معلوم کرد. در واقع آنالیز تشخیصی بر اساس مشخصه های مختلف برای گروه بندی مشاهدات به یکی از چندین گروه معلوم به کار می رود. مثلا وقتی بخواهیم کارگران را بر حسب مهارت به سه گروه متخصص، ماهر و نیمه ماهر تقسیم کنیم، باید آن ها را بر اساس مشخصه هایی که نمره داده شده است مورد اندازه گیری قرار دهیم. بدیهی است که این مجموعه اطلاعات و مشخصه ها باید بر در مورد نمونه های مناسبی از کارگران در گروه های فوق موجود باشند. مهمترین کاربردهای انالیز تشخیصی به شرح زیر است:
تحلیل تشخیصی را می توان برای تعیین طبقه بندی مواردی به کار برد که بر اساس امتیاز یک یا چند متغیر کمی هر مورد، در یک گروه خاص قرار می گیرند. مثلا یک شرکت بیمه ای مشتری هایش را بر اساس اطلاعلات آن ها به دو گروه تقسیم می کند.گروه اول کسانی که طی شش سال تصادف کرده اند و گروه دوم کسانی که طی شش سال تصادف نکرده اند. در کل این تحلیل یک یا چند قانون را برای طبقه بندی موارد بر اساس ترکیبات خطی از متغیرهای کمی وضع می کند. با بررسی ترکیب توابع می توان دیدگاهی برای متغیرها فراهم کرد که در تشخیص گروه ها از یکدیگر تاثیر بیشتری داشته باشند. پنج شنبه 29 آبان 1393برچسب:, :: 18:9 :: نويسنده : هادی واحد پور
تهیه پاورپینت از پایان نامه برای روز دفاع
پنج شنبه 29 آبان 1393برچسب:, :: 16:46 :: نويسنده : هادی واحد پور
انجام تحلیل آماری با استفاده از نرم افزار SPSS. رسم نمودار ها و جداول بخش توصیفی آزمون میانگین یک جامعه (one-sample T test) آزمون میانگین دو جامعه (independent-sample T test) آزمون میانگین زوجی(paired-sample T test) آزمون میانگین چند جامعه(ANOVA) آزمون دو جمله ای(Binominal test) آزمون مک نمار(Mcnemart test) آزمون کوکران(Cochrans test) آزمون من-ویتنی (Mann-Whiteny test) آزمون کروسکال-وایس (H) آزمون فریدمن(Friedman test) آزمون همبستگی پیرسون آزمون همبستگی اسپیرمن تحلیل واریانس تحلیل کواریانس رگرسیون خطی رگرسیون غیر خطی رگرسیون لجستیک آزمون استقلال آزمون نیکویی برازش (آزمون کای دو و آزمون کولموگروف-اسمیرنوف) آزمون استیودنت آزمون کای دو (خی دو) محاسبه آلفای کرونباخ تحلیل عاملی اکتشافی(EFA) دو شنبه 8 مهر 1392برچسب:تبدیلات نرمال ساز, :: 18:14 :: نويسنده : هادی واحد پور
بسیاری از تکنیکها در آزمون فرضهای آماری خود دارای چندین پیش فرض اولیه هستند که در صورت برقرار نبودن این پیش فرضها نمیتوان به نتایج به دست آمده با دقت مورد نظر اطمینان نمود. یکی از مهمترین این پیش فرضها داشتن توزیع نرمال متغیر وابسته است که در صورت عدم وجود استفاده از تکنیکهای آماری را دچار مخاطره مینماید. تبدیلات نرمالساز اگر فرض نرمال بودن رد شود، در ابتدا باید نقاط پرت یا خطاها در دادهها شناسایی شوند. برای شناسایی مشاهدههای پرت می توان از نامساوی چبیشف یا آزمونهای آزاد توزیع استفاده کرد. ممکن است بلافاصله پس از حذف نقاط پرت، توزیع دادهها نرمال شوند. از این رو برای نزدیک ساختن توزیع دادهها به توزیع نرمال، حذف مشاهدههای پرت نسبت به تبدیل دادهها از تأثیر بیشتری برخوردار است. اگر مشاهدات پرت مطرح نباشند، تبدیلات بر روی دادهها بسیار سودمند خواهند بود. تبدیلات مناسبی با بررسیهای نظری یا خود دادهها پیشنهاد میشوند: تبدیلات کلاسیک تبدیلهای ریشه دوم، تبدیل لگاریتمی و هم چنین تبدیل وارون معمولاً بر مبنای نظری یا شواهد تجربی برای دستیابی به خطی بودن الگو، نرمال شدن یا تثبیت واریانس خطا انتخاب میشوند. این تبدیلها را به عنوان یک حالت از تبدیلات توانی، میتوان در نظر گرفت. تبدیل ریشه دوم تبدیل ریشه دوم، تبدیلی است که در تصحیح شکل توزیع و کاهش چولگی مثبت دادهها مؤثر است. ولی در مقایسه با تبدیلهایی نظیر لگاریتم و ریشه سوم توان کمتری برای نرمال کردن توزیع دادهها دارد. عیب دیگر این تبدیل آن است که برای مقادیر منفی تعریف نشده است. برای غلبه بر این مشکل میتوان مقدار ثابتی به دادهها اضافه کرد، طوری که کوچکترین مقدار بزرگتر از صفر یا یک باشد. برای عددهای بزرگتر از یک ریشه دوم همواره کوچکتر و برای اعداد بین صفر و یک ریشه دوم بزرگتر است. لذا با کاربرد این تبدیل برای متغیرهای پیوستهای که مقادیر بین صفر و یک را دارند، با عددهایی مواجه میشویم که بسیار متفاوت از هم بوده و قابل توصیف نیستند. این تبدیل بویژه مناسب است هرگاه متغیر دارای توزیع پواسون باشد. تبدیل لگاریتم تبدیل لگاریتم تبدیلی است که به طور وسیعی در تحلیل رگرسیون به کار میرود. به جای کار کردن مستقیم با دادهها میتوان تحلیل رگرسیون را با لگاریتم دادهها انجام داد. این تبدیل بویژه وقتی مورد استفاده واقع میشود که متغیری که تحلیل میشود، انحراف معیار بزرگی در مقایسه با میانگینش داشته باشد. کار کردن با دادهها در مقیاس لگاریتمی اغلب تغییر پذیری و عدم تقارن را کاهش میدهد. این تبدیل در حذف ناهمپراشی نیز مؤثر است. تبدیل وارون زمانی که بین دادهها، مقدار صفر وجود نداشته باشد استفاده از تبدیل وارون مناسب است. این تبدیل اثر مقادیر بزرگ را مینیمم میکند زیرا برای این مقادیر، مقادیر تبدیل یافته نزدیک به صفر خواهد بود. گرچه تبدیل وارون را برای دادههای منفی نیز میتوان به کار برد، اما زمانی که همه مقادیر مثبت هستند استفاده از این تبدیل برای بهبود وضعیت نرمال در توزیع دادهها، مناسب است.
آخرین مطالب پيوندها تجزیه و تحلیل آماری ، نوشتن پایان نامه، نوشتن مقاله![]() نويسندگان |
|||
![]() |