تاپیک کلی جستجوگرها
اينترنت در سال 1960 ميلادي در قالب شبكه آرپانت در ايالات متحده، با اهداف نظامي و تحقيقاتي راهاندازي شد و كامپيوترهاي ارتش و در مرحله بعد مراكزي نظير پنتاگون و C.I.A را به يكديگر متصل كرد. عصر امروز را عصر اطلاعات خواندهاند. اين عنوان از اين رو به عصر جاري اطلاق شده است كه در سالهاي اخير- به خصوص پس از سال 1970 - سرعت انتقال اطلاعات بر سرعت انتقال فيزيكي پيشي گرفته است. شايد بتوان آغاز عصر اطلاعات را اختراع مورس دانست كه در سال 1837 اتفاق افتاد. به دنبال آن، ماشين حساب مكانيكي، تلفن و ضبط صوت و تلويزيون ابداع شد اما اختراع كامپيوتر شخصي است كه پيامدهاي گستردهاي را در تمام سطوح زندگي انسان به همراه آورد؛ پيامدهايي كه اصطلاحاً انقلاب ديجيتال خوانده ميشود.
. در واقع تاثير انقلاب ديجيتال در ابعاد فرهنگي، اقتصادي، اجتماعي و فناوري به اندازهاي است كه با انقلاب صنعتي قابل مقايسه است. انقلاب ديجيتال نيمه دوم قرن بيستم شاهد اختراع و تكامل كامپيوتر بود. كامپيوترهاي اوليه اندازه زيادي را در حد يك اتاق اشغال ميكردند و سقف قدرت پردازش آنها در پايينترين حد كامپيوترهاي كوچك امروزي بود اما تدريجا با تكامل در روند ساخت كامپيوتر، اين وسيله كوچك و كوچكتر و ارزان و ارزانتر شد. اينترنت در ابتدا در داخل ارتش آمريكا و براي تبادل اطلاعات ابداع شد، اما در دهه 1980 پنتاگون اجازه استفاده از آن را به دانشگاهها و مراكز تحقيقاتي آمريكا داد. اين آغاز جهاني شدن شبكهاي بود كه ظرف مدت كوتاهي بسياري از مناسبات را دستخوش دگرگوني كرد. در سالهاي اوليه دهه 1990 WWW WORD WIDE WEBرا تيم برنزرلي- محقق انگليسي- اختراع كرد و در واقع همين قابليت جديد بود كه استفاده از اينترنت را براي همگان امكانپذير كرد. اما امروز در يك روند پرشتاب، با افزودن 20/4 ميليون سايت جديد در نيمه اول سال 2007 ميلادي، تعداد سايتهاي اينترنتي در سراسر كره خاكي به بيش از 225 ميليون سايت افزايش يافته است. ورود به ايران از زمان ورود تكنولوژي اينترنت به جامعه ايراني حدود ده سال ميگذرد. در آغاز هزاره سوم، اينترنت و دستاوردهاي گوناگون آن، نقش انكارناپذيري در تحولات اطلاعرساني و به دنباله آن تحولات دگرگونيهاي اجتماعي، اقتصادي، فرهنگي و سياسي ايفا كرده است. اينترنت در ايران قبل از سال 1370 توسط سازمان فيزيك نظري راهاندازي و تعداد محدودي از دانشگاهها به اين شبكه متصل شدند اما 10 سال بعد در سال 1380 به شوراي عالي انقلاب فرهنگي ابلاغ شد تا اين شورا اقدامات لازم را در مورد كنترل اينترنت طرح و برنامهريزي كرده و در مدت زمان يك ماهه، گزارشي ارايه شود. بدين ترتيب از سال 1380 بحثهايي پيرامون *****ينگ مطرح و پيرو آن كميته مصاديق پايگاههاي غيرمجاز اينترنتي، زير نظر شوراي عالي انقلاب فرهنگي تشكيل شد. وزارت اطلاعات به عنوان دبير اين كميته و سازمان صدا و سيما و وزارت فرهنگ و ارشاد اسلامي اعضاي ثابت و اصلي كميته مصاديق پايگاههاي غيرمجاز اينترنتي هستند. نماينده شوراي عالي انقلاب فرهنگي و سازمان تبليغات اسلامي نيز دو عضو ديگر كميته مصاديق پايگاههاي غيرمجاز اينترنتياند. مجموعه مقررات پالايش و *****ينگ مراكز اينترنتي، مصوب سال 1381 شوراي عالي انقلاب فرهنگي است. در اين مورد به وزارت ارتباطات و فناوري اطلاعات، آييننامهاي ابلاغ شد كه مراكز اينترنتي بر اساس آييننامه مذكور مجوز بگيرند و قرارداد تاسيس مراكز اينترنتي را كه در آن تعهداتي ذكر شده را امضا كنند. مرجع صدور مجوز به مراكز اينترنتي نيز وزارت ارتباطات و فناوري و اطلاعات است. و حالا با خوب و بدهاي زياد اين پديده، مديركل مديريت و پشتيباني فني شبكه شركت فناوري اطلاعات (ديتا)، از *****ينگ بيش از 10 ميليون سايت اينترنتي توسط مراجع ذيصلاح اعم از قوه قضاييه، کميته تعيين مصاديق پايگاههاي غير مجاز اينترنتي و بانک اطلاعاتي نرمافزار پالايش خبر ميدهد. دسترسي 5/2 درصد خانوادههاي ايرانى به اينترنت بر اساس آخرين آمارهاي موجود، در كشور ما با جمعيتى در حدود هفتاد ميليون نفر، تعداد هفت ميليون دستگاه رايانه وجود دارد. براساس برنامه توسعه تدوين شده از سوى سازمان ملل متحد، براى تجزيه و تحليل توسعه ICT در كشورهاى مختلف، چهار شاخص كلى مورد توجه و بررسى قرار مىگيرد. اين شاخصها شامل قابليت اتصال، دسترسى، كاربرى و آزادسازى مىباشند.هر يك از اين مولفهها داراى ابزارها و ابعاد گوناگونند كه با تجزيه و تحليل و بررسى هر يك از آنها مىتوان به ميزان توسعه فناورى ارتباطات و اطلاعات در يك كشور پى برد. شاخص قابليت اتصال شامل وضعيت زيرساختهاى فيزيكى ICT از قبيل پهناى باند اتصال به اينترنت، تعداد رايانههاى شخصى و ضريب نفوذ تلفن ثابت و همراه، شاخص دسترسى، شامل مشخصههاى دسترسى نظير تعداد كاربران اينترنت، متوسط دريافت، هزينه تماس و ساير هزينهها، شاخص كاربرى، شامل محاسبه تبادل اطلاعات از طريق مخابرات و مراكز تبادل اطلاعات اينترنتى و شاخص آزادسازى شامل انجام دگرگونىهاى ساختارى براى انطباق و جذب ICTدر بخش مخابرات و ارتباطات كشور است. براساس اين شاخصها، كشورهاى جهان به سه گروه كشورهاى درپى توسعه (نظير ايران، پرو و سوريه)، كشورهاى در حال توسعه ( نظير امارات متحده عربى) و كشورهاى توسعه يافته يا پيشتاز در فناورى ارتباطات و اطلاعات (نظير نروژ، آمريكا و ايسلند)تقسيمبندى مىشوند. فرنود حسينى، كارشناس شبكه اطلاعرسانى ايران، با اشاره به اينكه تعداد سايتهاى اينترنتى راهاندازى شده، مىتواند يكى از شاخصهاى توسعه كاربرد ابزارهاى اطلاعرسانى در كشور تلقى شود، ميگويد: ايران با برخوردارى از جمعيتى جوان، در چهار ساله گذشته رشد بسيار سريع و حيرت انگيزى را در ثبت شناسههاى اينترنتى داشته است. اغلب ارگانها و سازمانهاى دولتى، اكثر شركتهاى خصوصى و بسيارى از افراد حقيقى، اقدام به استفاده از سرويسهاى اينترنتى در جهت ثبت شناسه و اجاره فضاى مجازى كردهاند و برنامههاى اطلاعرسانى خود را از اين طريق دنبال مىكنند. البته به علت حجم روز افزون ثبت شناسه توسط ايرانيان، هنوز آمار دقيق و روشنى از تعداد شناسههاى ثبت شده وجود ندارد. طبق آخرين آمار موجود در كشور ما با جمعيتى در حدود هفتاد ميليون نفر تعداد هفت ميليون دستگاه رايانه وجود دارد. يكى ديگر از ابعاد اين شاخص، ميزان واردات رايانههاى شخصى به كشور مىباشد كه در اين زمينه نيز كشور ما از وضعيت بسيار مناسبى برخوردار است. البته در چند سال اخير روند ايجاد خطوط مونتاژ نيز سيرى صعودى داشته است. فرنود حسيني با اشاره به رشد 30/7 درصدى تعداد تلفنهاى ثابت و رشد 68/6 درصدى آمار تلفنهاى همراه تا تير ماه جارى ميگويد: تعداد خطوط تلفن يك عامل محدودكننده براى اتصال و دسترسى به اينترنت محسوب مىشود. از سوى ديگر مىتوان ظرفيت توسعه خطوط اينترنت را بر اين اساس برآورد كرد. در شاخص تعداد كاربران اينترنت نيز تعداد كاربرانى كه از يك اشتراك اينترنت استفاده مىكنند مورد توجه قرار مىگيرد؛ اما در كشور در حال توسعهاى نظير ايران انواع ديگرى غير از اشتراك نظير استفاده از كافىنتها و نيز دسترسىهاى شراكتى در محاسبات لحاظ مىشوند. براساس آمارهاى موجود در حال حاضر حدود 6/2 درصد خانوادههاى ايرانى به شبكهى اينترنت دسترسى دارند. تعداد مشتركان Dial up نيز حدود دو ميليون و 500 هزار مشترك مىباشد. طبق بررسىها حدود 49 درصد كاربران شبكه اينترنت در كشور را زنان تشكيل مىدهند. در صورت بالا بودن نرخ مكالمات تلفنى استفاده از اينترنت براى عموم مردم مقرون به صرفه نخواهد بود و اين درحالى است كه كاربران اينترنت در قبال اتصال به شبكه بايد دو هزينه تلفن و هزينه دسترسى به شبكه را بپردازند. با اين حال تمهيداتى مثل كاهش نرخ خدمات تلفن و كارتهاى اينترنتى در بعضى ساعات شب مىتواند عامل موثرى در جذب كاربران به استفاده از شبكه باشد. البته گاهى به علت نبود يا كمبود كيفيت خدمات اينترنت در برخى شهرها، كاربران اقدام به خريد و استفاده از سرويسهاى شهرهاى بزرگى مثل تهران مىكنند كه اين خود موجب افزايش هزينههاى تلفن مىشود. سرانه درآمد مردم نيز يك عامل تعيين كننده ديگر در استفاده از اينترنت محسوب مىشود. قدرت خريد سختافزار و استطاعت مالى فرد براى پرداخت هزينه ارتباط مشخص كننده امكان برقرارى ارتباط اينترنتى مىباشد.اين پژوهشگر با اشاره به تاثير مولفههايى نظير رقابت شركتهاى خصوصى در عرصه مخابرات و تعدد و رقابت شركتهاى خدمات رسان سرويس دهنده وب (ISP) در ارتقاى شاخصهاى توسعه يافتگى ICT در كشور مىافزايد: ايران براى دستيابى هر چه بهتر و سريعتر به شاخصها و ابزارهاى توسعه ارتباطات و اطلاعات منطبق بر استانداردهاى جهانى، نياز مبرمى به نگرش كلان، اصولى و غيرنمايشى به پديده ICT دارد. با از بين بردن بسيارى از موانع موجود از طريق تعريف و تدوين موازين قانونى در راه انتقال خدمات به بخش خصوصى، ارائه گسترده و حتى رايگان خدمات آموزش عمومى ICT، افزايش سرانه استفاده از رايانه و اينترنت، نهادينه و اجرايى كردن مفاهيم دولت الكترونيكى و تجارت الكترونيكى در كشور مىتوان در راه توسعه بيش از پيش ICT كه از لوازم توسعه پايدار در كشور مىباشد، گام برداشت. ثبت نام سايتها در همين حال، وزارت فرهنگ و ارشاد اسلامي، در دي ماه 85، به همه دارندگان سايتها دو ماه فرصت داد تا با مراجعه به سايت «ساماندهي پايگاههاي اينترنتي ايراني» سايت و وبلاگ خود را ثبت کنند. ثبتنام سايتها از روز يازدهم دي ماه آغاز شد و تمامي سايتهاي خبري، اطلاعرساني، علمي و آموزشي ايراني موظف شدند تا در اين پايگاه ثبت نام کنند. اين طرح، بر اساس آئيننامهاي صورت گرفت که 29 مرداد سال 85 به تصويب دولت محمود احمدينژاد رسيد. بر اساس اين آئيننامه، وزارت فرهنگ و ارشاد اسلامي مسوول مديريت، ساماندهي و نظارت بر پايگاههاي اطلاعرساني اينترنتي است و از «فعاليتهاي مجاز و سالم در کشور» حمايت خواهد کرد. در عين حال اين وزارتخانه موظف است تا علاوه بر «هدايت و حمايت از فعاليتهاي اينترنتي مجاز» با فعاليتهاي غير مجاز برخورد کرده و از طريق کميته تعيين مصاديق پايگاههاي غيرمجاز اينترنتي نسبت به مسدود کردن سايتها و وبلاگها اقدام کند. بر اساس اين آئيننامه، در صورتي که پايگاههاي اطلاعرساني ثبت شده در وزارت ارشاد «فعاليت غيرمجاز» انجام دهند ابتدا با تذکر رسمي از مديران سايتها خواسته مي شود نسبت به حذف دادههايي «ممنوع» اقدام کرده و با اصلاح موارد مورد نظر نسبت از آنچه نوشتهاند عذرخواهي کنند. بعد از آن نيز گزارشي به کميته مصاديق پايگاههاي غيرمجاز اينترنتي فرستاده مي شود تا نسبت به مسدود کردن پايگاه براي مدت محدود يا تعطيلي دائمي آن اقدام شود. اشاعه منكرات و ترويج مطالب در اين آئين نامه، انتشار مطالب الحادي و کفرآميز و مخالف موازين مغاير با عفت و اخلاقي عمومي، توهين به اقوام و مليتهاي مذهبي، توهين به اشخاص حقيقي و حقوقي، تبليغ پايگاههاي اطلاعرساني غير مجاز و آموزش مقابله با *****ينگ به عنوان تخلفاتي نام برده شده است که با آن ميتوان جلوي فعاليت سايتها را گرفت و مديران آنها را به دادگاه معرفي کرد. موفقيت يا .... مانند تمام پديدههاي ديگر؛ اين اقدام نيز موافقان و مخالفاني يافت. برخي کارشناسان، اقدام تازه دولت براي ثبتنام سايتها را محدويتهاي تازه تعبير کردند که به ادعاي آنها از چند سال پيش آغاز شده و در دولت محمود احمدينژاد شتاب بيشتري گرفته است.اين در حالي است كه دولت، هدف خود از ثبت سامانههاي اينترنتي را حمايت از پايگاههاي قانوني، دسترسي آزاد و سالم مردم به اطلاعات و رعايت حقوق اجتماعي و ارزشهاي فرهنگي عنوان كرد.برخي معتقد بودند كه طرح شناسنامه دار کردن سايتها بايد اختياري باشد و برخي ديگر گفتند كه ثبت قانوني سايتها، از رواج شايعات بياساس جلوگيري ميکند.اما چندي پس از آغاز ثبت سايتهاي اينترنتي، «برخي» ناظران، در مورد موفقيت آن ابراز ترديد كردند. برخي منابع خبري تعداد سايتهاي ثبت شده در سايت ساماندهي را دو هزار سايت ذکر کردند و روزنامه کيهان نيز در فاصله 10 روز بعد نوشت كه 840 سايت حاضر شدهاند در سايت معرفي شده از سوي معاونت مطبوعاتي وزارت ارشاد ثبت نام کنند. در هر صورت، فراموش نكنيم همزمان با ورود هر تكنولوژي و فناوري جديدي به فضاي عمومي يك جامعه، لزوما فرهنگ استفاده از آن تكنولوژي و فناوري كه عمدتا وارداتي نيز هست، به درون كشيده نميشود. چه بهتر كه قبل از هر اقدام، با فرهنگسازي در مورد نحوه استفاده از اينترنت يا فناوريهاي مشابه، ضمن آنكه امكان دسترسي همگاني به آن را فراهم ميكنيم، كيفيت بهرهبرداري از امكانات شبكهاي همانند اينترنت را در كنار كميت، بالا ببريم و شاخصههاي توسعه همهجانبه را همراه با هم به سمتي صحيح جلو ببريم. |
مفاهیم و اصطلاحات دنیای جستجو و موتورهای جستجوگر
مفاهیم و اصطلاحات دنیای جستجو و موتورهای جستجوگر Spider نرم افزاري است كه كار جمع آوري اطلاعات از صفحات مختلف را بر عهده دارد. Crawler نرم افزاري كه مسير حركت اسپايدر را مشخص مي كند. Directory فهرست: نوعي از موتورهاي جستجوگر كه پايگاه داده آن توسط ويراستاران تكميل مي گردد. Keyword بــه واژه ها ي مهم (کليدی) هر صفحه گفته مي شود: اما غالبا" منظور كلماتي است كه دوست داريم با آنها رتبه هاي مناسبي كسب كنيم. Keyword Density چگالي كلمه، منظور تعداد دفعات تكرار واژه های كليدي در مقايسه با ساير كلمات متن است. Keyword Staffing تكرار يك كلمه به دفعات و پشت سر هم به منظور بالا بردن چگالی کلمه: اين کار تقلب محسوب می شود. Tinny Text نوشتن متن با اندازه های بسیار کوچک و ریز به گونه ای که کلمات بسیاری بدین ترتیب در یک خط قرار داده می شود و به سختی نیز در صفحه قابل رویت هستند. نوشتن مطالب به اين صورت، تقلب محسوب است. Invisible Text متن نامرئی: منظور استفاده از متن هاي همرنگ با پس زمينه صفحه است. متن هايی که از ديد کاربران مخفی می ماند. به عنوان مثال اگر پس زمينه يك صفحه سياه است، متن صفحه نيز با رنگ سياه نوشته می شود تا ديده نشود . اين نوع متن ها از مصاديق تقلب می باشند. Spam تقلب، به تمام تلاش هايي گفته مي شود كه به كمك آن سعي مي شود از راه هاي غير معمول، رتبه هاي بالايي كسب شود. يا در اختيار گذاردن اطلاعاتي كه موتورهاي جستجوگر آنرا دوست ندارند (اطلاعات ناخواسته) مانند تكرار يك كلمه به دفعات و پشت سر هم، استفاده از متن هاي هم رنگ زمينه و ... ALT tag محتواي اين شناسه، متني است كه يك عكس را توضيح مي دهد. Deep Crawl به معناي اين است كه موتور جستجوگر، مي تواند صفحات زيادي از يك سايت را در پايگاه داده اش قرار دهد. موتور جستجوگر هرچه پايگاه داده اش بزرگتر باشد، صفحات بيشتري از يك سايت را می تواند در پايگاه داده اش قرار دهد. همه موتورهاي جستجوگر داراي اين ويژگي نمي باشند. Robots.txt با اين فايل متني و ساده، ميزان دسترسي موتور جستجوگر به محتواي يك "سايت" را مي توان كنترل كرد. META robots tag به كمك اين شناسه ميزان دسترسي موتور جستجوگر به محتواي يك "صفحه" را مي توان كنترل كرد. Link پيوند: در واقع پلی بين دو صفحه است. به کمک آن می توان از يک صفحه به صفحه ديگر رفت. Link Popularity مقصود اين است که چه تعداد از سايت هاي ديگر به سايتي مشخص لينك کرده اند يا اينكه از چند سايت ديگر می توان به کمک پيوندها به سايتی مشخص رفت. Link Reputation اشاره به اين دارد كه ساير سايتها درباره سايتي كه بدان لينك داده اند، چه مي گويند. عموما در اين موارد عنوان، متن لينك و كلمات اطراف لينك در سايت مقصد، بررسي مي شوند. Learn Frequency بعضي از موتورهای جستجوگر مي توانند تشخيص دهند كه محتواي صفحات پس از چه مدتی تغيير مي كند (به روز می گردد) و بعد از آن مدت به آن صفحات مراجعه می کنند. URL-Uniform Resource Locator به آدرس منحصر به فرد هر منبع موجود در اينترنت گفته می شود. اين منبع می تواند يک صفحه وب، يک فايل متنی و... باشد Stop Word به کلماتی گفته می شود که در کل اینترنت از آنها بسيار استفاده شده است. کلماتی نظيرthe, a, an, web www, home page, و ... Meta tags به كمك اين شناسه ها، اطلاعاتي از صفحه در اختيار بينندگان (موتور جستجوگر، مرورگرها و ...) قرار داده مي شود. META Keywords به كمك آن، كلمات کليدی صفحه در اختيار موتورهاي جستجوگر قرار داده می شود. META Description به كمك آن، توضيحي مختصر از صفحه در اختيار موتورهاي جستجوگر قرار داده می شود. Stemming به معناي اين است كه موتور جستجوگر مي تواند صورت هاي مختلف يک كلمه را جستجو كند. به عنوان مثال با جستجوي swim موتور جستجوگر به دنبال swimmer ، swimming نيز مي گردد. همه موتورهاي جستجوگر داراي اين ويژگي نمي باشند. Rank رتبه يك صفحه در نتايج جستجو است زماني كه جستجويي مرتبط با محتواي آن صفحه انجام مي شود. Spamdexing مختصر شده spam indexing است، منظور طراحی و معرفي صفحاتي به موتورهاي جستجوگر است كه كيفيت نتايج جستجو را پايين مي آورند. موتورهای جستجوگر تمايل دارند که كاربران بارها و بارها به آنها مراجعه كنند و كيفيت بالاي نتايج مي تواند اين روند را تضمين كند. لذا آنها هركدام به نوعي سعي در تشخيص صفحاتي دارند كه كيفيت نتايج جستجو را پايين مي آورد. برخی از اين موارد عبارتند از: ساختن صفحاتي كه همگي داراي محتواي يكساني اند، تكرار يك كلمه بيش از حد و ... Comment توضيحاتي است كه طراحان سايت در لا به لاي كدهاي HTML مي گنجانند تا برای فهميدن وظيفه بخش هاي متفاوت كدهای HTML در مراجعات آتی نيازی به صرف وقت بسيار نداشته باشند. |
اسپاك موتور جستجوگر شخصیت
اسپاك موتور جستجوگر شخصیت
اسپاك، آخرين جبهه جست و جو كدام يك از شركت هاي نوپاي فناوري اطلاعات هست كه در آرزوي گوگل شدن نباشد؟ البته گفتناش راحتتر از انجاماش است. http://www.downtheavenue.com/images/...ock_logo_2.png اگر گوگل توانست يكباره پديدار شود و كار و كاسبي ياهو را تخته كند، چرا يك شركت نوپاي ديگر نتواند همان بلا را بر سر گوگل بياورد؟ البته در شركت اسپاك (Spock) هنوز كسي از اين ادعاها نمي كند، هر چه باشد سرويس جستوجوي آنها - كه استفاده از نسخه آزمايشي آن دعوت نامه لازم دارد - يك ماه نيست كه آغاز به كار كرده است. شركت اسپاك از زمان شروع حدماتش حدود 100 ميليون نفر را در بانك اطلاعات خود ذخيره كرده است و مي خواهد به سرعت افراد بيشتري را هم تحت پوشش قرار بدهد. در حالي كه بقيه سايت هاي جستوجوي افراد مثل Wink و Zoominfo هر يك شهرت كوتاه مدت خود را داشتند و بعد ناپديد شدند، اسپاك رويه متفاوتي را در پيش گرفته كه نشان مي دهد براي ماندن آمده است. اسپاك به كاربران قابل اعتماد خود امكان نوشتن تگ و جستوجوي متاتگها (تگهايي كه توصيف كننده تگهاي عادي هستند) را مي دهد. مدير عامل اين شركت آقاي جايديپ سينگ مي باشد و صفحه كنوني سايت نيز نسخه نهايياي است كه كاربران خواهند ديد. جمعه سی ام شهریور 1386 جمعه سی ام شهریور 1386 ساعت 17:4 |
سایت خود را به بیش از 40 موتور جستجوگر معرفی کنید
سایت خود را به بیش از 40 موتور جستجوگر معرفی کنید
قبلا یه سایتی میعرفی شده بود در این زمینه اما بعدا خراب شد حالا گشتم یه سایت خوب که کار باهاش راحت باشه رو پیدا کردم Free Submission to 40+ Search Engines کلیک کنید Google . Yahoo Web Pages . AOL Search . iWon.com . Exactseek. Jayde Search.com metacrawler Dogpile mamma C4 Canada.com ixquick Infogrid query Server WebInfoSearch 800go Debriefing Highway 61 37.com OneSeek metaSpider Vivisimo PlanetSearch SurfWax qbSearch ProFusion Proteus Go 2 Net megaGo.com WebFile myGO megacrawler و خیلی های دیگه |
|
موتورهای جستجوگر و سایت شما
موتورهای جستجو گر و سایت شما
بهینه سازی رتبه سایت شما در موتور های جستجو گر تعاریف تگها و متا تگها seo . و ..... page rank سعی کردم بهتریناشو جمع آوری کنم براتون که همه ی مقالات خوب رو یه جا داشته باشید اونم چیزی که زبان ساده ای داشته باشه که برای بعضی ها قابل فهم باشه به هر حال این بخش از مقوله طراحی و نگهداری سایت یکی از بخشهای مهم و اندکی فنیه اینه که لازمه با بعضی تعاریف و بعضی از کارهای ضروری در این زمینه آشنا بشید و پیجرنک خودتونو با دست خودتون برای مدتهای طولانی عقب نندازید و بگذارید هرچه سریعتر سایتی مثل گوگل پیج رنک خوبی بهتون بده have a good pagerank from google and other search engins ============================================== چند استراتژي مهم براي افزايش رتبه در موتورهاي جستجو هنوز موتورهاي جستجو بهترين ابزار براي جذب ترافيک به سايت شما هستند. دليل آن به خاطر هدفمند بودن جستجو در آنها است. شخصي که دنبال يک موضوع خاص است از جستجو در موتورها به سايت شما مي رسد. بسيار مهم است که سايت شما براي موتورهاي جستجو جذاب باشد چون باعث رتبه بهتر و ترافيک بيشتر و در نتيجه فروش بيشتر خواهد شد که هدف اصلي هر سايت است. براي افزايش رتبه در موتورهاي جستجو، 17 استراتژي زير بسيار موثر خواهند بود : 1. تراکم کلمات کليدي - نسبت کلمات کليدي به ساير کلمات در يک صفحه را چگالي يا تراکم کلمات کليدي مي نامند. مثلا اگر شما 100 کلمه در يک صفحه داريد و سه عدد از آنها جزو کلمات کليدي سايت شما هستند، چگالي کلمات کليدي آن صفحه 3% است. سعي کنيد که چگالي حدود 3 تا 20 درصد براي کلمات کليدي مهم سايت خود را تنظيم کنيد. سايتهاي زير براي آناليز سايت شما در مورد تراکم کلمات مختلف، کمک مي کنند : KeywordDensity.com KeywordCount.com ناگفته نمونه اینطوری هم نیست که پر کردن کلمات کلیدی در بخش مربوطه همیشه موفق باشیم متاسفانه خیلی سایت های بزرگ رو میبینم که مثلا 2400 کاراکتر در کلمات کلیدیشون هست !!! 2. کلمات کليدي در نام دامنه سايت شما - سعي کنيد يکي از مهم ترين کلمات کليدي سايت خود را در نام دامنه آن بگنجانيد. مثلا www.theHandicrafts.com که کلمه Handicraft در نام دامنه وجود دارد. اين مورد همچنين به مردم کمک مي کند که نام سايت شما را به خاطر بسپارند.کلمات کلیدی برای گوگل کمی کمتر مهمه اما مثلا یاهو ظاهرا اذعان کرده برام مهمه ! اینه که یه موضوعیه که باید رعایتش کنی هم اینطرفیش هم اونطرفیش 3. عنوان صفحه (Page Title) - يک عنوان توصيفي شامل 5 تا 8 کلمه که کلمات کليدي اصلي سايت شما را شامل باشند، انتخاب کنيد. عنوان، اولين چيزي است که مردم با آن در موتورهاي جستجو مواجه مي شوند. عنوان را با حرف بزرگ شروع کنيد و بقيه را با حروف کوچک بنويسيد. توجه کنيد که وجود کلمات فارسي با استاندارد يونيکد توسط موتور جستجوي گوگل شناسائي مي شود. مهمترين کلمات کليدي سايت خود را در ابتداي عنوان سايت خود قرار دهيد. این یکی به نظر من بینهایت مهمه 4. شناسه توصيف (Description tag) - برخي از موتورهاي جستجو اين شناسه را به دنبال عنوان سايت شما، نمايش مي دهند. 200 تا 250 کلمه در اين بخش وارد کنيد که 20 عدد از کلمات کليدي سايت شما را نيز شامل باشد. عنوان سايت خود را مجددا در اين بخش وارد نکنيد. در اين بخش نيز مي توانيد از کلمات فارسي استفاده کنيد. باز این مورد در گوگل کمی کمتر از موتورهای جستجوگر دیگه مهمه اما نمیشه ازش گذشت 5. شناسه کلمه کليدي (Keywords Tag) - اين بخش بسيار مهمي است و شما بايد 50 تا 100 کلمه کليدي سايت خود را در اين بخش وارد کنيد. موتورهاي جستجو براي اين بخش ارزش زيادي قائل هستند و در رتبه بندي سايت شما تاثير دارد. کلمات کليدي را با کاما از يکديگر جدا کنيد. با اين روش در حداقل جا، امکان ترکيبات متنوعي از کلمات کليدي سايت شما گنجانده خواهد شد. 6. شناسه ارزشگذار (Header tag) - جذاب ترين بخش براي موتورهاي جستجو کلماتي است که بين شناسه هاي H1 قرار دارند. اين شناسه ها بايد در بالاترين بخش صفحات سايت شما باشد. کلماتي که بين اين شناسه قرار مي گيرند، مثل <H1>Send flower to your relatives in Iran</H1> با اندازه بزرگ نمايش داده مي شوند و ممکن است زيبائي سايت شما را مختل کنند. مي توانيد با استفاده از شناسه هاي فرم دهنده (Styles) اندازه شناسه هاي ارزشگذار را متناسب کنيد. مثلا :h1 { font-family: Arial; font-size: 14pt } 7. شناسه توضيح (Comment tag) - اين ها اطلاعاتي هستند که توسط طراحان سايت براي قرار دادن توضيحات جنبي در بخشهاي مختلف صفحات استفاده مي شوند. اين اطلاعات توسط مرورگرها نمايش داده نمي شوند و در صفحات شما تاثير ظاهري ندارند. از کلمات کليدي مهم سايت خود در اين بخش استفاده کنيد. مثلا :<!-- Below code is responsible to ask flower name and prepare a gift object --> 8. شناسه جايگزين تصوير (Alt Tag) - وقتي که نمايش تصاوير در مرورگر شما خاموش است و يا وقتي نشانگر ماوس را روي تصاوير مي بريد، اطلاعات شناسه جايگزين تصاوير، نمايش داده مي شوند. اين کلمات هم براي موتورهاي جستجو بسيار مهم هستند. حتما از کلمات کليدي سايت خود در اين بخش استفاده کنيد. حتما کلمات بايد مناسب با تصوير مربوطه باشد در غير اين صورت به عنوان حقه بازي در ايجاد تراکم کلمات، توسط موتورهاي جستجو تحريم خواهيد شد. نمونه :<img src=/images/logo.gif ALT="Send flower to your relatives in Iran"> وقتی موستونو میبرید روی یه عکسی بعضی وقتا یه نوشته ی مرتبطی ظاهر میشه این اونه که میگه مهمه و البته که مهمه و در سرچ تصویری از نکات مهمی که اسپایدرهای این سایتها بهش توجه میکنند همینه البته برای سایت هایی مثل ما رعایت کردن این موضوع کمی دشواره اما اگر صفحاتتون خودتون طراحیش میکنید و کدنویسیش توسط خودتونه بهتره که رعایت کنید 9. نام فايلهاي تصاوير در صفحات شما - حتما نام تصاوير را از ميان کلمات کليدي سايت خود انتخاب کنيد. 10. نامهاي ارتباط صفحات - کلمات کليدي مهم سايت خود را در نام ارتباط صفحات قرار دهيد. مثلا به جاي نام صفحه services.htm از نام مناسب با نوع تجارت خود مثل webhostingservices.htm استفاده کنيد. تاثیر این بخش مثل بند 2 هست به نظر من و مهم هم هست 11. نقشه سايت (Site Map) - براي سايت خود نقشه تهيه کنيد و ارتباط با تمام بخشهاي سايت را به همراه توضيح آن بخش، در نقشه سايت قرار دهيد. نقشه سايت را در صفحه اول سايت خود قرار دهيد چون برخي موتورهاي جستجو فقط صفحه اول سايت شما را بازديد مي کنند. 12. محتواي کيفي - محتواي صفحات را با 250 تا 300 کلمه که شامل مهمترين کلمات کليدي شما هستند تهيه کنيد. اين اطلاعات بايد بيننده سايت شما را هدف گيري کنند. کلمات کليدي را در ابتداي پاراگرافها استفاده کنيد و از تکرار بيش از حد آنها که باعث عجيب شدن مطالب شما بشوند پرهيز کنيد. از کساني که در تهيه مطلب و مقاله وارد هستند بخواهيد که مطالب شما را قبل از کپي در سايت خود، مرور کنند. 13. بازسازي ارتباطات شکسته (Broken Links) - اکثر موتورهاي جستجو اگر در سايت شما ارتباطات شکسته وجود داشته باشد، سايت شما را ليست نمي کنند. بازديد کنندگان هم از ديدن صفحات 404 error page دلخور مي شوند و سايت ديگري را کليک خواهند کرد. حتما سايت خود را قبل از کپي در اينترنت توسط سايت www.anybrowser.com کنترل کنيد. من الان این لینک رو چک کردم خیلی خوب بود یه قسمتش ! این کار رو میکنه که شما فرض کنید در صفحه اول یه سایتی مثل سایت ما 450 لینک مختلف وجود داشته باشه در اون قسمت دونه دونه ی اون لینکها رو چک میکنه که آیا وجود دارند هنوز یا خیر 14. صفحه ارتباط با سايت (Contact page) - برخي موتورهاي جستجو، مخصوصا Yahoo ، اگر آدرس پستي شما در سايت نباشد، سايت شما را ليست نمي کنند. نه دیگه دوره ی این افراط گریها هم نمونده اینطوری نیست اما تاثیر خودشو داره قطعا و حتما رعایت کنید (کاری که ما نکردیم ;)) حتما آدرس پستي را در سايت قرار دهيد، فقط قرار دادن آدرس صندوق پستي کافي نيست. 15. ارتباط متقابل - موتورهاي جستجو مخصوصا گوگل به تعدد ارتباط ها به سايت شما حساس هستند و آنرا در رتبه سايت شما اثر مي دهند. يک صفحه لينکستان بسازيد و به سايتهاي مشابه، نه رقيب، سايت خود ارتباط دهيد، مخصوصا سايتهائي که در موتورهاي جستجو رتبه خوبي دارند. از سايتهاي ديگر بخواهيد که به سايت شما ارتباط دهند. براي اينکه بدانيد از کدام سايتها به سايت شما ارتباط داده شده است، در موتور گوگل عبارت زير را جستجو کنيد : بله این یکی از مهمترین مشخصه های یه سایته که چندتا سایت دیگه که پیجرنک بالاتری از شما دارن به شما لینک کرده اند منتهی همین طوری هم نیست که از دیگران بخوای لینکت کنند حتی اگه همکاری دو طرفه هم باشه و شما هم اونو لینک کنید بازهم شاید طرفتون قبول نکنه چون page ranke بالاتری از شما داره link : www.yoursitename.com 16. ارتباط هاي ضربدري - اگر چندين سايت داريد، به يکديگر ارتباط دهيد و براي هر ارتباط، توضيحي تهيه و در سايتهاي خود قرار دهيد. از کلمات کليدي سايت خود در اين توضيحات استفاده کنيد.17. اندازه فايلها را کوچک نگاه داريد - اگر از کد هاي جاوا اسکريپت يا DHTML استفاده مي کنيد، معمولا قبل از محتواي سايت شما، در بالاي صفحه قرار مي گيرند، جائي که براي موتورهاي جستجو مهم است و آنها به جاي رسيدن به اطلاعات سايت شما، با کدهاي برنامه مواجه مي شوند و رتبه شما کاهش مي يابد. براي کوچک نگاه داشتن اندازه فايلها، کدهاي برنامه را در صفحات جداگانه قرار دهيد و در صفحه اصلي include کنيد. نتيجه : يک طراحي ساده و تميز که به راحتي قابل بازديد باشد انجام دهيد. روي محتواي مناسب و جالب براي بازديد کننده که خوب نوشته شده است و کلمات کليدي سايت شما را شامل باشد، تمرکز کنيد. يک استراتژي مناسب با توجه به نکات بالا تدوين کنيد و شاهد افزايش چشم گير ترافيک سايت خود باشيد. استراتژی مهم برای افزايش رتبه در موتورهای جستجو |
how to improve page rank of your site ?
how 2 improve page rank of your site ?
تا حالا در پست بالا بیشتر نکات کلیتر مطرح شد که البته باید رعایت بشه حالا در مورد تگها و متا تگها باید کمی بدونید که اونا هم به اندازه کافی مهمه و بعضی هاش یه مواقعی از نان شب واجبتر حتی از لحاظ امنیت ! ---------------------------------------------------------------------------------------- تا کنون فکر کرده اید که چرا موتورهای جستجو به سایت شما سر نمی زنند یا اینکه هیچ فکر کرده اید که باید چندین فولدر مهم در فروشگاه رو از دست آنها پنهان کرد تا به اطلاعات اضافی دسترسی نداشته باشند؟ روش کار با ایجاد یک فایل به نام robots.txt هست که این کار را برایتان انجام می دهد. این فایل را باید در ریشه سایت قرار دهید تا موتورهای جستجو با کنترل آن از دستور دلخواه شما پیروی کنند. دو پروتكل عمده براي منع كردن موتورهاي جستجوگر از بايگاني منابع وب وجود دارد: • پروتكل robots • پروتكل robots meta tag پروتكل robots می توان با يک فايل متنی و بسيار ساده، ميزان دسترسی موتورهای جستجوگر به محتوای سايت ها را کنترل کرد. اين فايل robots.txt نام دارد و پروتکل حاکم بر آن پروتکل robots نام دارد. موتور جستجوگر قبل از آنکه وارد سايتی شود، ابتدا فايل ياد شده را درخواست می کند و تمام محدوديت های پيش روی خود در آن سايت را می خواند. نبود اين فايل در يک سايت به معنای نبودن هيچ گونه محدوديتی برای تمام اسپايدرها است (حالت پيش فرض). موتور جستجوگر بعد از آنکه تمام فايل ها و مسيرهای ممنوع را دانست. شروع به خواندن مطالب سايت می کند و البته به محدوديت های موجود نيز احترام می گذارد (اگر يک اسپايدر مودب باشد!). نوشتن robots.txt پروتکل روبوتز تنها دو دستور دارد که به کمک آنها محدوديت های زير مشخص می شوند: • کدام اسپايدرها محدود شوند. • کدام مسيرها محدود شوند. user-agent: با اين دستور، روبوت ها مشخص می شوند. روبوت (اسپايدر) هر موتور جستجوگر نام مشخصی دارد و برای محدود کردن موتورهای جستجوگر کافی است که نام روبوت های مورد نظر را به همراه اين دستور به کار گيريم. اي دستور به صورت زير به کار می رود: به عنوان مثال وقتی که روبوت مورد نظر مربوط به گوگل است خواهيم داشت: user-agent:googlebot و همين طور اگر روبوت NorthernLight مورد نظر باشد،آنگاه: user-agent:gulliver با اين دستور مسيرهای ممنوع مشخص می شوند که به صورتهای زير به کار می رود: /disallow:/path /disallow:/admin /disallow:/pub برای محدود کردن هر روبوت ابتدا آنرا مشخص کرده و سپس تمام مسيرهای محدود شده برای آنرا ذکر می کنيم: user-agent: googlebot /disallow:/admin /disallow:/pub اگه فروشگاه شما در داخل یک فولدر قرار دارد باید به این صورت استفاده کنید : /disallow:/shop/admin /disallow:/shop/pub و با دستور زير همه روبوت ها می توانند محتوای تمام مسيرها را بخوانند: *:user-agent :disallow کاربرد * به همراه user-agent به معنای تمام روبوت ها است. در مثال زير به تمام روبوت ها گفته می شود که خوش آمديد، اينجا خبری نيست، لطفا دور شويد (با زبان خوش!). *:user-agent :disallow کاربرد / به همراه disallow به معنای تمام مسيرها است. همچنين برای نوشتن توضيحات در فايل robots.txt از # به صورت زير استفاده می شود: all robots are allowed # *:user-agent :disallow شما اگر گاليور بوديد و قصد سفر به سايت آدم كوچولوها را داشتيد با ديدن دستورات زير چه مي كرديد؟ *:user-agent /:disallow User-agent:Gulliver Disallow: فايل robots.txt را کجا بايد قرار داد؟ از مثال زیر کمک گرفته و فایل را در محل مناسب آن قرار دهید.محل مناسب و صحیح همان ریشه سایت می باشد. robots.txt و نكات ديگر: • حتی اگر سايت شما هيچ گونه محدوديتی ندارد توصيه می شود که اين فايل را بر روی سرور خود قرار دهيد. در اين صورت کافيست که به صورت زير عمل کنيد: *:user-agent :disallow بودن اين فايل به صورت ذکر شده و نبودن آن در هر دو صورت برای موتورهای جستجوگر يک معنا دارد: آزادی در دسترسی به محتوای سايت اما وجود robots.txt می تواند نشان از حرفه ای بودن سايت باشد و شايد در رتبه بندی سايت هم مورد لحاظ قرار گيرد. آزادی در پرتو يک قانون بدون محدوديت بهتر است از آزادی ناشی از بی قانونی! • همواره يک مسير را ممنوع کنيد و نه يک فايل را. گيريم که شما فايل rtg.html را برای گوگل به صورت زير محدود کرده باشيد: user-agent:googlebot diallow:/admin/rtg.html *:user-agent :disallow همانطور كه مي دانيد تنها موتورهاي جستجوگر فايل robots.txt را نمي خوانند و در واقع همه کاربران با خواندن اين فايل می توانند بفهمند که شما چه فايلی را محدود کرده ايد و به راحتی می توانند به آن مراجعه کنند. • تمام مسيرهای درون اين فايل را با حروف کوچک انگليسی بنويسيد. وب سرورهاي نصب شده بر روي سيستم هاي عامل يونيكس به بزرگي و كوچكي حروف در URL حساس هستند. • هر سايت تنها می تواند يک فايل robots.txt داشته باشد. • بعد از آنکه فايل robots.txt را بر روی سرور سايت خود قرار داديد با بررسی Server Logs سايت خود می توانيد بفهميد که آيا موتورهای جستجوگر به محدوديت هايي که تعريف کرده ايد وفادار بوده اند يا خير. اگر يک موتور جستجوگر به محتوای آن توجه نکرده باشد، می توانيد با آنها مکاتبه کرده و علت را جويا شويد و از آنها بخواهيد که فايل های مسير مورد نظر را از بايگانی خود حذف کنند. • در ابتدا و انتهای تمام مسيرهای قرار گرفته در Disallow از / استقاده کنيد. پروتکل robots meta tag با استفاده از robots.txt توانستيم بعضی از مسيرهای سايت خود را برای همه و يا تنی چند از موتورهای جستجوگر محدود کنيم. می توان با استفاده از يکی از شناسه های HTML هم محدوديت هايي را برای يک صفحه تعريف کرد. اين شناسه ميزان دسترسی به يک صفحه را معين می کند و به يکی از چهار صورت زير به کار می رود: <meta name=\"robots\" content=\"index,follow\"> <meta name=\"robots\" content=\"noindex,follow\"> <meta name=\"robots\" content=\"index,nofollow\"> <meta name=\"robots\" content=\"noindex,nofollow\"> Index به معنای اين است که موتور جستجوگر می تواند محتوای صفحه را بايگانی کند. آوردن no بر سر آن به معنای اين است که موتور جستجوگر نمی تواند محتوای صفحه را بايگانی کند. Follow به اين معناست که موتور جستجوگر می تواند لينک های موجود در صفحه را دنبال کند. آوردن no بر سر آن به اين معنا است که موتور جستجوگر نبايد لينک های صفحه را دنبال کند. با استفاده از اين شناسه محدوديت ها به تمام موتورهای جستجوگر اعمال می شود و نمی توان محدوديت های موردی اعمال کرد: همه يا هيچ کدام! اگر در صفحه ای از اين شناسه استفاده نشده باشد، به معنای index, follow است. يعنی محتوای صفحه خوانده شود و لينک های آن دنبال گردد (حالت پيش فرض). می دانيد هر يک از چهار ترکيب ياد شده برای چه صفحاتی مناسب می باشند؟ برخی از موتورهای جستجوگر نيز META robots مخصوص به خود دارند ( نظير گوگل) که می توانيد از آنها نيز استفاده کنيد. برای اطلاع از چگونگی استفاده از آنها می توانيد از Help همان موتور جستجوگر کمک بگيريد. |
meta tag ها چه هستند؟
متا تگها ، تگهايي هستند كه در بين دو تگ <head></head> در سند html قرار مي گيرند.دو نوع مختلف از متاتگها وجود دارد: NAME : تگهاي NAME با HTTP header ها برابر نيستند. HTTP-EQUIV : اين تگها با HTTP header ها برابرند. چرا از meta tag ها استفاده مي كنيم؟ مي توان گفت در سند html نيازي نيست از تگهاي http-equiv استفاده كنيم،در حقيقت اجباري به استفاده از هيچ كدام از متاتگ ها وجود ندارد البته بدون name tag صفحه ما در بسياري از موتورهاي جستجو index نمي شود.در اغلب موتورهاي جستجو از ربات خزنده اي استفاده مي شود كه در صفحات هر وب سايت حركت مي كند و به دنبال اين name tag ها مي گردد و از اين طريق كلمات كليدي(keyword) و توضيحاتي(description) را در مورد هر صفحه بدست مي آورد.سپس اين اطلاعات در بانگ اطلاعاتي موتور جستجو ثبت مي شود.براي مثال يك نمونه از meta name ها عبارت است از: کد:
<meta name="keywords" content="key,word,about,my,site"> اين كمترين متاتگي است كه شما بايد در صفحه قرار دهيد. NAME Tag عبارتند از: Description: به اين ترتيب توضيح كوتاهي در مورد محتويات صفحه در آن قرار مي گيرد.اين مورد در صفحاتي كه از Frame ها استفاده مي كنند از اهميت بالايي برخوردار است. کد:
<meta name="description" content="This site is full of code for programmers."> Keywords: كلمات كليدي در مورد محتويات صفحه تعيين مي شود.كلماتي مانند the و همچنين ساير كلمات ناچيز توسط جستجوگرها index نمي شوند. کد:
<meta name="keywords" content="c++, code, programming"> نام نويسنده كدهاي صفحه مشخص مي شود: کد:
<meta name="author" content="chris maunder"> توسط اين مورد هم معمولا نام و نسخه ابزاري كه با آن صفحه ساخته شده تعيين مي شود.در اغلب برنامه هاي اين تگ اتوماتيك به سند اضافه مي شود.اين مورد شايد توسط فروشنده هاي نرم افزار استفاده مي شود تا ميزان نفوذشان به بازار را تعيين كنند. Copyright: از اين طريق هم كسي را كه حق چاپ صفحه متعلق به اوست تعيين مي كنيم. کد:
<meta name="copyright" content="chris maunder"> Robots: با اين مورد هم مي توان بر چگونگي ايندكس كردن صفحه توسط جستجوگرها نظارت كرد: NOINDEX: به جستجوگر مي گويد كه هيچ چيز را در اين صفحه ايندكس نكند. NOFOLLOW: به جستجوگر مي گويد كه لينك ها صفحه را تعقيب نكند ولي آنها را ايندكس كند. NOIMAGEINDEX: به جستجوگر مي گويد تصاوير اين صفحه را ايندكس نكند. NOIMAGECLICK: به جستجوگر مي گويد به جاي لينك مستقيم به تصوير به صفحهء حاوي تصوير لينك كند. NOARCHIVE: به جستجوگر مي گويد كه صفحه را كش نكند.اين مورد تنها در مورد جستجوگر گوگل صدق مي كند. براي مثال: کد:
<meta name="robots" content="NOINDEX"> Expires: وقتي استفاده مي شود كه زمان صفحه سپري شود.اگر يك جستجوگر اين مورد را شناسايي كند صفحه را از ديتابيس خود پاك مي كند يا مجدداً صفحه را در تاريخ انقضاء ايندكس مي كند. کد:
<META HTTP-EQUIV="expires" CONTENT="Thu, 27 Jun 2002 10:56:57 GMT"> به مرورگر مي گويد كه در مورد كش كردن صفحه چطور رفتار كند: PUBLIC: در كش هاي به اشتراك گذاشته شده كش شود. PRIVATE: تنها در كش هاي محرمانه كش شود. NO-CACHE: اصلا صفحه را كش نمي شود. NO-STORE: شايد كش شود ولي بايگاني نمي شود. براي مثال: کد:
<META HTTP-EQUIV="cache-control" CONTENT="no-cache"> Content-Type: باعث مي شود كه مرورگر قبل از لود صفحه character set تعيين شده را لود كند. کد:
<meta http-equiv="Content-Type" content="text/html; charset=UTF-8"> تعيين مي كند كه style ها در صفحه چطور تعريف شده اند. کد:
<META HTTP-EQUIV="Content-Style-Type" CONTENT="text/css"> Content-Language: زبان صفحه تعيين مي شود.براي مثال: کد:
<META HTTP-EQUIV="Content-Language" CONTENT="EN-GB"> Refresh: اين مورد موجب Refresh صفحه و لود صفحه تعيين شده پس از زمان معيني مي شود.زمان بر حسب ثانيه تعيين مي شود. [CODE]<META HTTP-EQUIV="Refresh" CONTENT="10; |
بهينه سازي تگ هاي متا (Meta Tags )
زماني بود كه محتویات تگ های متا برای موتورهای جستجو خيلي مهم بودند. با بازگشت به عقب می توان به این موضوع دست یافت که الگوريتم هاي موتور جستجو خيلي كند عمل ميكردند و نميتوانستند متوجه شوند كه یک صفحه از یک وب سایت چه مفهومي را با توجه به محتوا مي رساند. همین موضوع باعث شکل گرفتن ايده اي هوشمندانه در اين زمينه شد و چنین بود که تگ هاي متا بوجود آمدند. وظیفه اصلی آنها این بود كه اطلاعاتي هم چون موضوع اصلی یک صفحه و ... را در مورد محتواي يك صفحه به موتورهاي جستجو اعلام كنند. اين ايده بزرگ نه تنها مانعي در برابر طراحان سايتهاي اينترنتي كه تگهاي متايشان را پر از كلمات كليدي کنند , ايجاد نمي کرد , حتي آنها را تشويق به چنين كارهايي مي نمود. همين مسائل باعث شد تا موتورهاي جستجو براي جلوگيري از تخلف طراحان سايت در استفاده از کلمات کليدي زياد در تگهاي متا , آنها را ناديده بگيرند و چنين شد که امروزه اكثر تگ هاي متا بي ارزش هستند و موتورهاي جستجو هیچ ارزشی برای آنها قائل نیستند. به طور مثال گوگل از هيچ تگ متايي استفاده نمی کند ( به جز Meta description ) ، به همین دلیل به شما توصیه می شود که اگر به دنبال يك رتبه بالا در گوگل , بوسيله كلمات كاملاً بهينه سازي شده در تگ هاي متا داريد ، خودتان را خسته نكنيد. ازكدام تگ هاي متا بايد استفاده كنيد؟ از ديد گوگل اضافه كردن تگ متاي توصيفي (meta description ) منجر به افزايش رتبه صفحات در نتايج موتور جستجو نميشود ، اما اين توصيف ممكن است براي تشریح صفحات در ليست صفحات نتايج جستجو در گوگل مورد استفاده قرار بگيرد. درصورتي كه يك تگ متاي توصيفي جالب بنويسيد و گوگل از آن استفاده كند ( كه ضمانتي نشده است ) ، ممكن است در مقايسه باsnippet ( برای توضیح در مورد Snippet به بخش واژه نامه مراجعه کنید ) که خود گوگل که از متن صفحاتتان بدست ميآورد , از ميزان كليك بالايي برخوردار شويد. تمام ديگر تگ هاي متا ( ازجمله تگ متاي کلمه کليدي ) يا اصلاً در نظر گرفته نميشوند و يا تاثيري در افزايش رتبه صفحات در نتايج موتور جستجو نخواهند داشت. اما ياهو ميگويد در زماني كه صفحه اي را رتبه بندي ميكند از تگ متاي كلمه كليدي استفاده ميكند , از اينرو اضافه كردن اين تگ براي موتور جستجوي ياهو و يا هر موتورجستجوي ديگري كه هنوز از اين متاها استفاده ميکنند , ميتواند مفيد واقع شود. همچنين دايركتوريها و وب سايتهاي ديگري وجود دارد كه به طور خودكار جهت اضافه کردن سايت شما به ليست از اين اطلاعات استفاده مي کنند. تگ هاي متاي نمونه در زير شما مجموعه اي از نمونه تگ هاي متا را پيدا خواهيد كرد که براي صفحه اي که ميخواهيد در تمام موتورهاي جستجو فهرست بندي كنيد , نياز است. < !DOCTYPE HTML PUBLIC “-//W3C//DTD HTML 4.01 Transitional //EN” “http://www.w3.org/TR/html4/loose.dtd’ > < HTML >< HEAD > < TITLE > آموزش بهينه سازي تگ هاي متا در موتورهاي جستجو < / TITLE > < meta name=”description” content=”create the perfect meta tags for high search engine placement.” > < meta name=”keywords” content=”keyword1, keyword2, …” > < meta http-equiv=”content-type” content=”text/html;charset=ISO-8859-1” > < link rel=”stylesheet” type=”text/css” href=”../seo-gold” media=”all” > < / HEAD > DOCTYPE : در واقع يک تگ متا نيست و ضرورتي ندارد كه اين گزينه را به صفحه اي که مي خواهيد در رتبه بندي موتور جستجو موفق باشد , اضافه كنيد ، اما اگر شما بخواهيد كه صفحه اي را با يک validator html ارزيابي كنيد ( مثل http://validator.w3.org ) نياز خواهيد داشت تا اين تگ را در صفحه درست اضافه كنيد. عنوان (the Title ): اين گزينه نيز يك تگ متا نيست ، اما بعضي اوقات افرادي كه كاملاً کاربرد تگ هاي متا را درك نميكنند , از Title به عنوان يک تگ متا ياد مي كنند. عنوان براي بهينه سازي صفحات خيلي خيلي مهم است , زيرا عنوان را به يک صفحه كامل بهينه سازي شده اختصاص مي دهيم. عنوان بايد شامل مهمترين اصطلاحات آن صفحه و احتمالاً يك يا دو كلمه كليدي مرتبط با آن صفحه باشد. مثلا عنواني که در مثال بالا آورده شده است به صفحات بهينه سازي شده اي در زمينه هاي بهينه سازي تگ هاي متا ، آموزش تگ هاي متا ، آموزش بهينه سازي موتورجستجو ، تگ هاي متاي بهينه سازي موتور جستجو و غيره كمك ميكند. با اضافه كردن تعداد زيادي از كلمات كليدي عنوان صفحه را نا مفهوم نکنيد و مهمتر از آن هيچ گاه بازديدكنندگان بالقوه را فراموش نكنيد. ( آنها مجبورند آن را بخوانند ) تگ متاي توصيفي (the Description meta tag ) : همانطور كه در ابتدا بيان شد , گوگل محتويات تگ متاي توصيفي را پوشش نمي دهد و تاثيري بر روي رتبه بندي صفحه در نتايج موتور جستجو ندارد ، اما ممكن است به عنوان توصيفي در نتايج جستجو مورد استفاده قرار بگيرد. از اينرو بايد يک توصيف از صفحه باشد , نه اينکه آنرا با کلمات کليدي پر کنيد. تگ متاي كلمات كليدي (the Keywords meta tag ) : اين تگ متا هيچ ارزشي براي گوگل ندارند و احتمالاً براي ديگر موتورهاي جستجوي اصلي نيز ارزش كمي دارد. مجموعه كاراكتر و فايلهاي خارجي لينكها (the Character set and links external files ) : تگ هاي متا نيستند و بر روي رتبه بندي در موتور جستجو هيچ تاثيري ندارند. مجموعه كاراكتر توسط مرورگرها مورد استفاده قرار ميگيرد , از اينرو مجموعه درستي از كاراكترها براي نمايش دادن صفحه تان مورد استفاده قرار ميگيرد. فايلهاي خارجي مانند Style ها ( فايلهاي Css ) و فايل هاي جاوا اسكريپت خارجي (JS files ) در اينجا به عنوان فايلهاي منبع در نظر گرفته شده اند و بر روي بهينه سازي موتورجستجو تاثيري ندارند ، اما اگر شما بتوانيد بعضي ازجاوا اسكريپت ها را از صفحه تان خارج كنيد , در واقع پهناي باند را ذخيره ميكنید و به اين معني است كه صفحاتتان سريعتر بارگذاري ميشوند. تگ متاي روبوت : 12 نوع تگ متاي ديگر وجود دارد ،اما به ندرت از آنها براي افزايش دادن رتبه بندي موتورجستجو مورد استفاده قرار ميگيرد. مهمترين تگي كه شما ممكن است بعضي اوقات نيازداشته باشيد تگ متاي Robots است كه مثالي از ان را کشاهده مي کنيد: < meta name=”robots” content= noindex,nofollow" > اين تگ ( مثال بالا ) ميتواند جهت جلوگيري كردن از دسترسی اسپايدرهاي موتورجستجو به صفحات اختصاصي موجود در وب سایتتان مورد استفاده قرار بگيرد. مثلا ما کد بالا را در صفحه سبد خريد يک فروشگاه مجازي کرديم , جرا که ما نمي خواستيم كه بازديدكننده از طريق اين صفحات وارد سايت شود ( زيرا در اين صورت سايت به درستي كار نميكند ) . با وارد كردن اين کد در بالاي موتور جستجو اسپايدرها لينكهاي اين صفحه را فهرست بندي يا دنبال نميكنند. تگ متاي Robots ميتواند ازطريق يك فايل robots.txt استفاده شود. < meta name=”robots” content=”index,follow” > تگ متاي فوق باعث مي شودکه موتور جستجو صفحه را فهرست بندي كند و تمام لينكهاي آن را دنبال نمايد. اگر اين آن چيزي است كه شما ميخواهيد ( از آنجائيكه به طور پيش فرض اسپايدرهاي موتورجستجو اين کار را به هرحال انجام ميدهند ) از تگ متاي robot استفاده نكنيد. < meta name=”robots” content=”noindex,follow”> تگ متاي فوق باعث مي شودکه موتور جستجو اين صفحه را فهرست بندي نكند ، اما لينكها را دنبال ميكند. بعضي از طراحان سايتهاي اينترنتي كه از تكنيكهاي بهينه سازي black hat استفاده ميكنند از اين تگ براي مخفي كردن تكنيكهاي مشكوكشان استفاده ميكنند. < meta name=”robots” content=”index,nofollow”> تگ متاي فوق باعث مي شودکه موتور جستجو اين صفحه را فهرست بندي كند ،اما لينكها را دنبال نكند. < meta name=”robots” content=”noindex,nofollow”> تگ متاي فوق باعث مي شودکه موتور جستجو اين صفحه را فهرست بندي نكند و لينكها را نيز دنبال نكند. از اين متا معمولا در صفحاتي استفاده كنيد كه نميخواهيد موتورهاي جستجو با آنها ارتباط داشته باشند. درنتيجه تگ هاي متا براي صفحات نتايج موتور جستجو مهم نيستند ، ازاينرو در مورد آنها وقتتان را صرف نكنيد. امید است در پایان این مقاله طراحان سایت بتوانند صفحات وب سایت خویش را هر چه بهتر از قبل مدیریت کرده و مهمتر از آن با قرار دادن عنوان مرتبط به هر صفحه , کاربران را از یک مقدمه خیلی کوتاه در مورد آن صفحه محروم نکنند. |
1. آيا به ارايه دادن (submit) لينكهاى به ردوز در آمده و/يا فديمى و صفحهه ها در گوگل احتياج دارم؟
گوگل ضميمه ها و فهرست هاى خود را مكررا به روز در مياورد، پس submission هاى جديد و يا قديمى ضرورى نيست. ما ميبايست آنها را در هر مقطع زمانى فقط برداريم. 2. چگونه مي توانم يکباره چند صفحه را در گوگل ثبت كنم؟ لطفا صفحه اضافه كردن URLهاى<A href="http://www.google.com/intl/fa/add_url.html"> ما را ببينيد تا بتوانيد URL هاى خود را وارد كنيد. در آن قسمت فقط صفحه اول و يا اصلى هر سايت لازم ميباشد، پس لازم نيست كه شما مثلا آدرس تك تك صفحات را وارد كنيد. crawler و Googlebot ما قادر خواهند بود خود بقيه صفحات را پيدا كنند. 3. چرا گوگل هيچ يک از صفحه هاى سايت مرا فهرست نمي كند؟ صفحه هايي که تاکنون فهرست برداری نشده اند احتمالا در بررسي سايت منظورنشده اند. اين امر مي تواند به اين دليل باشدکه کمتر سندی در وب به آن صفحه پيوند زده است. --اگر از سايتهای ديگر سندی به صفحه های مجموعه درحال فهرست برداری پيوند نزده باشد، ما نمي توانيم معيار PageRank را برای آن صفحه تعيين کنيم(معيارPageRank ابزار ويژه ی ما برای سنجش اهميت صفحه های وب است).هنگامي که پيوندهای بيشتری به اين صفحه زده شود، ما آن را درفهرست خواهيم گنجاند. گوگل چگونگي پيوند ميان سندهای وب را ارزيابي مي کند و مي گذارد تا ماهيت آزاد و گسترده ی اينترنت، مناسبترين يافته ها را برای پرسش کاربران تامين کند. 4. روبوت گوگل برای فهرست برداری از يک نشاني وب چه مقدار زمان نياز دارد؟ بستگي به برنامه ی زماني روبوت و اين که نشاني وب چه هنگام داده شود، سراسر فرايند به يک تا چهار هفته زمان نياز خواهد داشت. 5. چرا برخي از زمانها عنوان صفحه در گزارش يافته های جست وجو ديده نمي شود؟ بعيد از بسيارى از ماشينهاى جستجوى ديگر، Web crawler - Googlebot ميتوانند نتيجه دهند حتى اگر در آن صفحه جستجو نكرده باشند. صفحه هايى كه شناخته شده اند ولى بررسى در آنها نشده باشند نيز قابل نتيجه گيرى هستند، ولى از زمانى كه ما آنها زا نگاه نكرده باشيم title آنها قابل نشان دادن نخواهند بود -- در عوض آدرس آنها نشان داده ميشوند. 6. چگونه مي توانم از گوگل بخواهم اطلاعات از پيش ذخيره شده سايت مرا نمايش ندهد؟ سيوال اين جواب به خوبى در صفحه "حذف محتوى" توضيح داده شده است. 7. چطور ميتوانم درخواست كنم وقتى كه گوگل تمام سايت منرا مورد بررسى (crawl) قرار نداده است؟ در قسمت سيستم خودكار ما براى بخشهايى كه مستثنا ميشوند، استانداردى هست كه اين استاندارد موجود در صفحه http://www.robotstxt.org/wc/norobots.html ميباشد. شما ميتوانيد براى اين استثنا يك فايل با نام robots.txt در سايت خود قرار دهيد. راه ديگر برای اينکه روباتهارا مجبور کنيم که يک صفحه يا زير مجموعه آن را فهرست نکنند، استفاده از "META" ها در HTML است که توضيح آن در http://www.robotstxt.org/wc/exclusion.html#metaآمده است. علاوه بر اين شما مي توانيد بفهميد که HTML به روبوت چه مي گويد (البته به زبان انگليسی)! در ضمن به ياد داشته باشيد که تغييراتی که شما در فايل robot.txt يا در META های HTML می دهيد منجر به تغيير آنی در نتايج GOOGLE نمي شود. زيرا مدتی طول ميکشد تا هر نوع تغييری در فهرست جديد GOOGLE اعمال شود. پرسشهايی درباره ی فناوری 1. چرا Googlebot فايل robots.txt را درخواست مي كند در حالى كه اين فايل در سرور من نيست؟ Robot.txt يک سند استاندارد است که به روبات گوگلی ميگويد چه اطلاعاتی از سرور وب شما را ذخيره نکند. 2. چرا Googlebot مي کوشد پيوندهای نادرست را از سرور من دريافت كند؟ اين که تعداد زيادی از LINKها از بين رفته باشد و يا اينکه هيچگاه وجود نداشته بودند، يک خصوصيت وب است. زيرا ممکن است يکی اشتباها به سايت شما اشاره کند و يا نتواند صفحاتش رو برای هماهنگی با تغييرات به روز کند. روبوگوگلی برای ذخيره پيوندهای غلط سايت شما هم زور خواهد زد! به همين خاطر ممکن است نتايج مربوط به ماشينی را ببينيد که هرگز وجود نداشته است. 3. چرا Googlebot اطلاعاتى را از وب سرور "پنهاني" ما دريافت مي كند؟ تقريبا غير ممکنه که بتونيد با منتشر نکردن پيوند، سايت خودتون را مخفی نگه داريد. چون به زودی يکی پيدا ميشود و آدرس سايت شما را در سايت ديگه ای قرار ميدهد. پس حالا امکان ذخيره اون توسط وب سرور مهيا شده و از اين طريق است که دير يا زود روبوگوگلی يا ديگر ابزارهای مشابه سايت شما را پيدا خواهند کرد! 4. چرا Googlebot از فايل robots.txt من پيروی نمي كند؟ برای صرفه جويي در پهنای باند، روبوگوگلی روزی يک بار و يا موقعی که تعداد زيادی صفحه از روی سرور برميدارد؛ Robot.txt را ميخواند. بنابراين مدتی طول می کشد تا روبوگوگلی تغييرات Robot.txt شما را متوجه شود. در ضمن Google روی تعداد زيادی از ماشين ها قرار دارد که هر کدوم Robo.txt را به طور مجزا نگه ميدارند. يادتون باشه مه گرامر صحيح را با استاندارد که در http://www.robotstxt.org/wc/norobots.html واقع شده، تطبيق بدهيد. اگه با همه اين کارها بازهم مشکل حل نشد، به ما بگوييد تا ما اون رو درست کنيم. 5. چگونه سايت خود را درGooglebot ثبت كنم تا فهرست برداری شود؟ ما هر بار که وب را مي کاويم بدون نياز به انجام کاري از جانب شما سايتهاي جديد را به فهرست خود اضافه مي کنيم.شما هم مي توانيد سايت خود را از طريق فرم اضافه کردن آدرس به اطلاع ما برسانيد. 6. چگونه سايتي را ازفهرست گوگل حذف كنم؟ Google تمام اطلاعات خود را به صورت اتوماتيک و طبق يک برنامه زمان بندي مشخص به روز مي کند.وقتي که ما به وب سر مي کشيم ، صفحات جديد را پيدا مي کنيم همچنين لينکهاي مرده را حذف مي کنيم و لينکها را به صورت اتوماتيک به روز مي آوريم.لينکهايي که در حال حاضر تاريخشان قديمي شده است را اقلب در مرور آينده از مجموع اطلاعات حذف مي کنيم.براي اطلاعات بيشتر لطفا اينجا را انتخاب کنيذ. 7. چرا در Google.com دسترسيهايى از چندين ماشين با حالت user-agent از Googlebot وجود دارد؟ Googlebot به طريقي طراحي شده است که بر روي چندين ماشين مختلف اجرا شود به اين ترتيب کارايي سيستم همزمان با بزرگتر شدن وب بهتر مي شود.همچنين ، براي کاهش استفاده از پهناي باند ما ترجيح مي دهيم که از روبوتهايي استفاده کنيم که بر روي ماشينهايي قرار داشته باشند که به سايتي که مي خواهيم به ليست اضافه کنيم نزديکتر باشد. تغيير آدرس URL سايت شما حذف سايت شما حذف صفحات شخصى حذف خورده ريزها حذف صفحات مخفى -- Cached حذف يك لينك تاريخ گذشته حذف يك تصوير از جستجوگر تصاوير گوگل |
A Standard for Robot Exclusion Table of contents: This document represents a consensus on 30 June 1994 on the robots mailing list (robots-request@nexor.co.uk), between the majority of robot authors and other people with an interest in robots. It has also been open for discussion on the Technical World Wide Web mailing list (www-talk@info.cern.ch). This document is based on a previous working draft under the same title. IntroductionIt is not an official standard backed by a standards body, or owned by any commercial organisation. It is not enforced by anybody, and there no guarantee that all current and future robots will use it. Consider it a common facility the majority of robot authors offer the WWW community to protect WWW server against unwanted accesses by their robots. The latest version of this document can be found on http://www.robotstxt.org/wc/robots.html. WWW Robots (also called wanderers or spiders) are programs that traverse many pages in the World Wide Web by recursively retrieving linked pages. For more information see the robots page. The MethodIn 1993 and 1994 there have been occasions where robots have visited WWW servers where they weren't welcome for various reasons. Sometimes these reasons were robot specific, e.g. certain robots swamped servers with rapid-fire requests, or retrieved the same files repeatedly. In other situations robots traversed parts of WWW servers that weren't suitable, e.g. very deep virtual trees, duplicated information, temporary information, or cgi-scripts with side-effects (such as voting). These incidents indicated the need for established mechanisms for WWW servers to indicate to robots which parts of their server should not be accessed. This standard addresses this need with an operational solution. The method used to exclude robots from a server is to create a file on the server which specifies an access policy for robots. This file must be accessible via HTTP on the local URL "/robots.txt". The contents of this file are specified below. This approach was chosen because it can be easily implemented on any existing WWW server, and a robot can find the access policy with only a single document retrieval. A possible drawback of this single-file approach is that only a server administrator can maintain such a list, not the individual document maintainers on the server. This can be resolved by a local process to construct the single file from a number of others, but if, or how, this is done is outside of the scope of this document. The choice of the URL was motivated by several criteria:
The format and semantics of the "/robots.txt" file are as follows: ExamplesThe file consists of one or more records separated by one or more blank lines (terminated by CR,CR/NL, or NL). Each record contains lines of the form "<field>:<optionalspace><value><optionalspace>". The field name is case insensitive. Comments can be included in file using UNIX bourne shell conventions: the '#' character is used to indicate that preceding space (if any) and the remainder of the line up to the line termination is discarded. Lines containing only a comment are discarded completely, and therefore do not indicate a record boundary. The record starts with one or more User-agent lines, followed by one or more Disallow lines, as detailed below. Unrecognised headers are ignored. User-agent The value of this field is the name of the robot the record is describing access policy for. If more than one User-agent field is present the record describes an identical access policy for more than one robot. At least one field needs to be present per record. The robot should be liberal in interpreting this field. A case insensitive substring match of the name without version information is recommended. If the value is '*', the record describes the default access policy for any robot that has not matched any of the other records. It is not allowed to have multiple such records in the "/robots.txt" file. Disallow The value of this field specifies a partial URL that is not to be visited. This can be a full path, or a partial path; any URL that starts with this value will not be retrieved. For example, Disallow: /help disallows both /help.html and /help/index.html, whereas Disallow: /help/ would disallow /help/index.html but allow /help.html. Any empty value, indicates that all URLs can be retrieved. At least one Disallow field needs to be present in a record. The presence of an empty "/robots.txt" file has no explicit associated semantics, it will be treated as if it was not present, i.e. all robots will consider themselves welcome. The following example "/robots.txt" file specifies that no robots should visit any URL starting with "/cyberworld/map/" or "/tmp/", or /foo.html: نقل قول:
This example "/robots.txt" file specifies that no robots should visit any URL starting with "/cyberworld/map/", except the robot called "cybermapper": نقل قول:
Example Code Although it is not part of this specification, some example code in Perl is available in norobots.pl. It is a bit more flexible in its parsing than this document specificies, and is provided as-is, without warranty.
|
چه خوب میشد اگر به یکباره در نتایج جستجوی گوگل در بالاترین درجه قرار میگرفتیم ! براستی تاکنون به این موضوع فکر کرده اید که ملاک موتورهای جستجو در نمایش نتایج جستجو و قرار دادن یک سایت بالاتر از دیگری در چیست؟ در این قسمت قصد دارم شما را با یکی از این تکنیک ها به نام Google Page Rank و یا بطور اختصار Google PR آشنا کنم. با ما باشید.
بطور خلاصه Page Rank یک سیستم جستجوی مبتنی بر شبکه بهم پیوسته لینک هاست که به هر کدام از اجزای آن(یعنی در حقیقت به هر وب سایت مورد اشاره) یک ارزش وزنی اختصاص میدهد که این خود به تنهائی درجه اهمیت یک سایت را مشخص میکند (هرچه به سایتی بیشتر لینک داده شده است خب حتما مهمتر است دیگر!). Page Rank بعنوان یک پروژه تحقیقاتی در سال 1995 در دانشگاه استنفورد و توسط Larry Page (که لابد اسمش را هم گذاشته روی پروژه اش) و Sergey Brin آغاز شد و هدفش دستیابی به نسل جدیدی از موتورهای جستجو بود که در سال 1998 بلاخره به یک پروژه عملی تبدیل شد و در آن سال گوگل متولد گردید. چندی بعد Page و Brin شرکت Google Inc را بعنوان شرکت اصلی موتور جستجوی گوگل تاسیس نمودند. ولی هنوز پروژه اولیه منجر به تولد گوگل (Page Rank) را فراموش نکرده و بعنوان یکی از فاکتورهای جستجوی گوگل جهت تعیین مرتبه صفحات ، مورد استفاده قرار میدادند. گوگل خود درباره Page Rank چنین میگوید : Page Rank یک روش ابتکاری مبتنی بر ساختار دموکراتیک وب است که از شبکه گسترده لینک ها جهت تعیین مرتبه و امتیاز یک صفحه معین استفاده میکند بعنوان مثال تفسیر گوگل از لینک موجود در صفحه A که به صفحه B اشاره میکند ، در واقع نوعی رأی مثبت صفحه A به صفحه B میباشد که البته مبنای امتیاز دهی گوگل صرفا تعداد این رأی ها نیست بلکه صفحه ای هم که این لینک را داده است توسط گوگل بررسی میشود . مسلم است که هر چه رتبه این صفحه اول، خود بالاتر باشد تاثیر مستقیم در رتبه سایت دوم یعنی B دارد. پس هرچه یک سایت مهمتر به صفحه شما لینک داده باشد صفحه شما نیز در رده بندی گوگل بالاتر خواهد ایستاد. از لحظه ارائه این الگوریتم تاکنون بررسی های متعددی پیرامون روش کار آن و راههای بهبود عملکرد آن ارائه گردیده است. یکی از مشکلاتی که ممکن است در این الگوریتم پیش آید هنگامی است که شخصی جهت بالا بردن درجه اهمیت سایت خود اقدام به تولید لینکهای کاذب به صفحه مورد نظر خود بنماید که با اینکار Page rank را به اشتباه بیاندازد. برای رفع این مشکل گوگل اقدام به تهیه یک کد به صورت rel=nofollow نمود که با قرار دادن این کد قبل از لینک مورد نظر گوگل از آن جهت بررسی در Page Rank صرفنظر میکند. از دیگر موارد جدید Page Rank قرار دادن باصطلاح Toolbar آن در صفحه مورد نظر است که رتبه صفحه شما را از میان اعداد از یک تا ده نمایش میدهد که عدد بالاتر رتبه بالاتری دارد که البته چون بنا به گفته گوگل این Toolbar هر سه ماه یکبار Update میشود زیاد نمیتوان به آن بعنوان یک ابزار قابل اطمینان جهت تعیین رتبه صفحه مورد نظر تکیه کرد. همچنین بر همین سیاق میتوان به مورد Google Directory Page Rank اشاره کرد که همانند Toolbar یک ابزار بررسی رتبه سایت میباشد با این تفاوت که در Toolbar با قرار دادن موس بروی آیکن سبزرنگ آن رتبه سایت از بین یک تا ده به نمایش در می آید ولی در مورد Directory رتبه سایت در حالت عادی قابل مشاهده نیست و در اصل یک ابزار نشان دهنده به خود گوگل و Page Rank برای شناسائی این رتبه میباشد. در یک بررسی دقیقتر Page Rank متشکل از یک جدول توزیع احتمال است که میزان شانس کلیک های احتمالی بصورت تصادفی از صفحات مختلف به مقصد یک صفحه فرضی را بنمایش میگذارد که برای صفحه ای با هر اندازه دلخواه قابل محاسبه است. بطور کلی در اکثر تحقیقات علمی برای شروع عمل محاسبه رتبه سایت با توجه به تعداد سایت های مورد بررسی احتمال اولیه بین آنها تقسیم میشود (مثلا اگر در حال بررسی 5 سایت متفاوت هستیم در ابتدا برای هرکدام شانس 20 درصد را در نظر میگیریم). در عمل Page Rank برای انجام پروسه خود به عملی به نام تکرار (iterations) احتیاج دارد که منظور از آن عمل گشتن در میان لینک های مختلف از سایت های متفاوت است (از یک سایت شروع و همینطور لینکها را دنبال میکند). که در اینجا عددی مابین صفر و یک را به هرصفحه نسبت میدهد مثلا یک صفحه با Rank 0.5 یعنی احتمال اینکه شخصی با فشردن یک لینک بطور تصادفی به این قسمت هدایت شود 50 درصد میباشد. فکر کنم یک مثال وضعیت پیچیده بالا را کمی روشن کند : فرض کنید در حال بررسی چهار صفحه A،B،C و D هستیم. طبق آنچه که در بالا تشریح کردیم در ابتدا برای هرکدام شانس مساوی و برابر 0.25 را در نظر میگیریم. خب حالا باز فرض کنید که هر سه صفحه B،C و D هرکدام به تنهائی به صفحه A لینک داده اند به همین خاطر Rank صفحه A برابر حاصل جمع Rank صفحات B،C وD میباشد که میشود 0.75 . اگر در این لحظه فرض کنیم که صفحه B علاوه بر A به صفحه C نیز لینک داده است و همچنین صفحه D نیز به تمامی سه صفحه دیگر لینک داده است آنوقت ارزش رأی صفحه ای که به چندین صفحه لینک داده است به تعداد لینک هایش تقسیم میشود مثلا در این مورد ارزش صفحه A عبارت است از: محاسبه Page Rank بهمراه ضریب تعدیل (Damping Factor): مکانیزم عملکرد Page Rank در نظر میگیرد که حتی یک User موهومی (که میتواند یک روبات مخصوص کلیک کردن باشد) هم در نهایت به کلیک کردن خود پایان میدهد بهمین خاطر و برای دقیق تر کردن رتبه بندی خود ، Page Rank فاکتوری به نام فاکتور تصحیح یا d را معرفی میکند که عبارت است از احتمال اینکه User (در هر مرحله ای که باشد) به عمل کلیک کردن خود ادامه دهد. این فاکتور تاکنون از روش های متفاوتی محاسبه شده است ولی در عمل برای آن مقداری در حدود 0.85 را در نظر میگیرند که در محاسبه رتبه سایت این فاکتور را از عدد یک کسر کرده و حاصل را با حاصلضرب فاکتور تصحیح و Rank قبلی ، جمع مینمایند بصورت زیر : (عمرا فکر میکردید گوگل به این پیچیدگی باشد؟) بدین صورت رتبه هر صفحه بطور گسترده ای وابسته به رتبه صفحات دیگری که به آن لینک داده اند میباشد. گوگل هرگاه که اقدام به Update کردن خود مینماید این Rank ها نیز به روز میشوند و البته با افزایش صفحات موجود در آرشیو گوگل رتبه ابتدائی برای صفحات نیز خود بخود کاهش می یابد (چون بین تعداد بیشتری تقسیم میشود) برای Update شدن این Rank ها گوگل بصورت تصادفی از یک URL (آدرس اینترنتی) آغازکرده و با دنبال کردن لینکهای موجود در آن صفحه به صفحات و صفحات دیگر میرود و این روند را دنبال میکند خب حالا اگر در این میان به صفحه ای بر بخورد که در آن هیچ لینکی موجود نباشد(Sink) آنوقت تکلیف چیست ؟ پاسخ راحت است در آن لحظه یک URL دیگر بطور تصادفی اتنخاب میگردد. بطور حتم Google Page Rank یکی از چندین راه شناساندن صفحات مهم به جستجو گر Google میباشد که ارزش آن تا به جائی رسیده است که بسیاری از وب سایت ها برای گذاشته شدن لینک صفحه شان در سایتهای معروف مبالغ هنگفتی را پرداخت میکنند که البته این نیز از دید گوگل پنهان نمانده است و به آنها اخطار کرده که در صورت محرز شدن این امر آن لینک ها را نادیده میگیرد. راستی دوست داشتید که لینک سایت شما درست زیر صفحه معروف جستجوی گوگل می بود؟ English Excerpt : This is a Persian article about Google Page Rank. It describes the method of page ranking by Google منبع |
جستجوگر متقلب ها
جستجوگر متقلب ها
http://www.pcpress.ir/wp-content/upl.../copyscape.png موضوع اصلی درباره ی سايت CopyScape. اين سايت به نوعی مجری قانون كپی رايت در بخش copy/past مطالب سايت ها است. ابزار جستجوی اين سايت كاربران را قادر می سازد تا با استفاده از موتور جستجوی اين سايت به راحتی تنها با وارد كردن نام سايت خود مطالبی از سايتشان را كه در سايت های ديگر copy/past شده اند پيدا كنند. اين سايت در حالت معمولی يا مجانی فقط ده مورد ازسايت های رو كه بدون اجازه از مطالب شما استفاده كردند رو نشون می ده و برای ديدن نتايج بيشتر بايد از سرويس Premium اين سايت استفاده كنيد. تقريباً برای هر بار جستجو كامل يا همون Premium چيزی در حدود ۰.۰۵ دلار می گيره. شايد بگيد همين كار رو هم سايت های جستجوی معمولی مانند گوگل نيز انجام می دن و چه فرقی با اين سرويس داره؟ بله مسئله همين جاست و تفاوت اين موتور جستجو با موتور های جستجوگر ديگه همين جا مشخص می شه. در واقع اصول كار اين جستجوگر به اين صورت كه تنها مطالبی رو كه بدون اجازه شما انتشار پيدا كرده باشن رو نمايش می ده. يعنی اين جستجوگر اگر ببينه مطلبی عين مطلب شما بعد از اون تاريخی كه شما اون مطلب رو ارائه كرديد بدونه اين كه اسمی از منبع مطلب برده شده باشه انتشار پيدا كرده به عنوان يك مطلب copy/past شناسايی می كنه و اون رو در ليست متخلفين قرار می ده. http://pcpress.ir البته این سایت به درد جستجوی سایتهایی که مثل ما فروم هستند نمیخوره امتحان کنید ببینید چرا ؟ اما کلا سایت خیلی باحالیه |
سایت خود را در مرورگر های مختلف ببینید
سایت خود را در مرورگر های مختلف ببینید
این مقاله رو به شکل دیگه ای قبلا گذاشته بودم اما هر چی میگردم پیداش نمیکنم:confused: شاید ندانید که سایت شما در مرورگرهای مختلف به شکلهای مختلف نشان داده می شود، در این صورت بایستی سایت خود را به گونه ای طراحی کنید تا در اونع مرورگرها بصورت صحیح و زیبا نمایش داده شود. گاهی ممکن است سایت شما در مرورگر خاصی نمایش داده نشود. سعی کنید که قبل از ارسال سایت خود بر روی اینترنت بررسی کنید که آیا صفحات طراحی شده شما در مرورگرهای مختلف بدرسی نشان داده می شود. با استفاده از فناوری وب سایت http://browsershots.org خواهید توانست که تصاویری از نحوه نمایش سایت مورد نظر خود در انواع و اقسام مرورگرها مبتنی بر انواع مختلف سیستم عامل ها مشاهده کنید. کافی است وارد این وب سایت شده: http://browsershots.org ، آدرس سایت مورد نظر خود را وارد کنید و سپس موارد مورد نیاز را انتخاب کنید و فرم را ارسال کنید. پس از گذشت چند دقیقه Screenshot ( تصاویر) گرفته شده از مرورگهای نمایش دهنده سایت شما، مشاهده خواهد شد. برای مثال سایت خودمون رو از این آدرس در مرورگرهای مختلف ببینید http://browsershots.org/http://www.p30city.net |
kodoom معرفی موتور جستجوی فارسی کدوم ( www.kodoom.com )
kodoom معرفی موتور جستجوی فارسی کدوم ( www.kodoom.com ) معرفی موتور جستجوی فارسی کدوم http://www.kodoom.com/images/logo.png Every Persian Event on the Planet TM تمام رویدادهای ایرانی و پارسی در جهان
|
TinEye ، جستجوگر هوشمند عکس یک سایت وحشتناک عالی که حتی فکرشم نمیکنید !
TinEye ، جستجوگر هوشمند عکس یک سایت وحشتناک عالی که حتی فکرشم نمیکنید !
تا حالا شده شک کنید که شاید یکی از عکس هایتان توسط کسی در اینترنت پخش شده باشد؟ ممکن است شما را به عنوان یک قاتل فراری معرفی کرده باشند و شما از همه جا بی خبر! یا اینکه اصلآ بخواهید یک عکس مشخص را مثلآ با کیفیت بهتر یا در یک هاست دیگر پیدا کنید؟ TinEye به شما کمک میکند بفهمید که آیا از یک عکس خاص در جایی از اینترنت استفاده شده است یا نه؟ چطوری؟ ابتدا وارد سایت TinEye شوید و درخواست دعوت نامه کنید (این سایت هنوز در مرحله تست قرار دارد). بعد از چند ساعت درخواست شما تایید میشود و میتوانید اکانت بسازید. بعد از وارد شدن به سایت فقط کافی است عکس را آپلود کنید یا آدرس اینترنتی آن را بدهید تا نتیجه را ببینید. TinEye عکس شما را از جهات مختلف مثل اندازه ، پسوند ، حجم و رنگ و شکل پیکسل های به کار رفته مورد بررسی قرار میدهد تا عکس های مشابه را پیدا کند. در حال حاظر ایندکس این سایت خیلی گسترده نیست و شاید در مواردی نتایج دلخواه را به شما ندهد ولی همین حالا هم خیلی خوب کار میکند. عکس زیر را ببینید تا شگفت زده شوید: میتوانید افزونه این سایت را برای فایرفاکس یا IE از اینجا نصب کنید تا راحت تر با این سرویس کار کنید. میتوانید از اینجا وب سایت خودتان را اضافه کنید تا عکس های آن ایندکس شود. میتوانید سوالات متداول راجع به این سرویس را در اینجا ببینید (انگلیسی). |
واقعا وحشتناکه ...
من اگه بهم میگفتند یه سایتی هست که این کارو میکنه و ایمیل شما رو میگیره 1 هفته بعد نتیجه رو به ایمیلتون ارسال میکنه هم میگفتم واقعا دمشون گرم ! اما اینیکی در حد سرعت جستجوی تصویری گوگل هم نتایج رو نشون میده من این مطلب رو بار اول در مجله دنیای کامپیوتر خوندم اما متن بالا رو از سایت زنگوله اوردم ... 2 کاربرد مهم که من براش سراغ دارم اینه که اولا شما مثلا یه عکس خیلی مناسب از فلان شخصیت مهم دارین که میخواین پوسترش کنین اگه اون عکس رو از نت گرفته باشین مخصوصا سایتهای ایرانی انواع اقسام لوگو ها و آدرسهای اینترنتی روشه ! حالا شما سرچ میکنین نمونه سالمشو در سایت دیگه ای پیدا میکنین و یا اسم یه بازیگری رو که عکسشو دارین اما نمیدونین چی هست رو با این طریق سرچ میکنین به احتمال خیلی زیاد به نامش و سایر عکسهاش میرسین مثلا یه روز امیر عباس خودمون این http://tineye.com/query/ee0994e1e463...9a10e7dbf782a0 این بازیگرو از من خواست که اسم کامل و یه سری عکساشو براش پیدا کنم خب این کار رو به سختی کردیم و چند عکس براش پیدا شد اما از طریق نتایجی که این سایت در اختیار من گذاشت به http://actriceshollywood.blogs.alloc...magnifique.htm هدایت شدم که کلی عکس ازش هست یا شما یه گوشی موبایل عکسشو توی نت دیدین خوشگله و خوشتون میاد بدونین چیه ولی اسمشو نمیدونین... خب چیکار میکنین ؟ یا میخواین بدونین شبیه کی هستین ؟ ! نکنین این کاروو.. باور میکنین من کلی عکس ایرانی رو سرچ کردم به راحتی برام پیدا کرد ؟ مثلا این عکس رو http://tineye.com/query/d049b3c1401d...e63e48333bdfab 36 تا دیگه عین اون برام پیدا کرد... |
Bing.com آيا دنيا به موتورجستجوي ديگري نياز دارد؟
Bing.com آيا دنيا به موتورجستجوي ديگري نياز دارد؟
آيا دنيا به موتورجستجوي ديگري نياز دارد؟ http://www.jamejamonline.ir/Media/im...0908819730.jpg مايكروسافت در بازار موتور جستجو، هر وقت با گوگل رقابت كرده است،يك چيز نصيبش شده: شكست. اما تاثير موتورهاي جستجو در جذب مشتري آنقدر زياد است كه اين شركت هيچگاه دست از رقابت نخواهد كشيد. موتور جستجوي بينگ كه پنجشنبه گذشته براي اولينبار بهعموم نشان داده شد، همانند ديگر موتورهاي جستجو، هر كلمهاي را كه واردش كنند، جستجو خواهد كرد. اما بينگ براي كساني كه بخواهند در 4 شاخه خريد، سفر، سلامت و امور محلي جستجو كنند، نتايج جالب توجهي خواهد آورد. اين استراتژي ممكن است به مايكروسافت كمك كند تا كاربران را از سوي موتورهاي جستجوي اوليه به سمت خودش بكشاند و در نتيجه بتواند تبليغات بيشتري بگيرد. اما حتي اگر مايكروسافت در اين كار موفق باشند، احتمال اينكه گوگل و ياهو اين ويژگيها را بهخود اضافه كنند،وجود دارد. از زمان قديم موتورهاي جستجو قابليتهاي همديگر را كپي ميكردند. در سالهاي اخير اول از همه پيشنهاد كلمههاي مرتبط با جستجو بهعنوان ويژگي مطرح شد، بعد تصاوير و بعد ويدئوها اضافه شدند. گرگ استرلينگ، تحليلگر اينترنت موسسه تحقيقاتي هوش بازار استرلينگ، ميگويد: «اگر يك ويژگي خاص بهطور خاصي محبوب شود، براي اضافه كردن آن به گوگل اصلا نياز به انتظار طولاني مدت نيست.» بينگ يك مشكل ديگر نيز پيش روي دارد: بر اساس تحقيقاتي كه خود مايكروسافت انجام داده است بيش از 60 درصد كاربران اين شركت اعلام كردهاند كه از نتايج موتورهاي جستجوي فعلي رضايت دارند. اين نتيجه كار را براي شركتي كه تنها 8 درصد سهم بازار دارد و گوگل 64 درصد همان بازار را تصاحب كرده است، دشوار ميكند. تحقيقات مايكروسافت نشان ميدهد از هر چهار جستجو، تنها يكي در اولين بار به نتيجه ميرسد و بقيه بايد كلمههايي كه جستجو ميكنند را تغيير دهند يا به وبگردي بپردازند. جستجوهاي مرتبط با مسافرت نشان ميدهد كه مايكروسافت چطور ميخواهد رقبا را كنار بزند. مثلا اگر عبارت پرواز از سياتل به سان فرانسيسكو را سرچ كنيد، اولين لينك به شما اولين پرواز را خواهد داد و قيمت بليت آن. همچنين ميتوانيد به رزرو بليت براي هفت روز آينده بپردازيد. همين جستجو در گوگل يا ياهو فهرست وبسايتهاي هواپيمايي را ميآورد، اما قيمت بليتها را خير. مايكروسافت اين بار بهدنبال ساخت موتور جستجويي رفته است كه آن را بهاصطلاح «عمودي» مينامند. عمده فعاليت مايكروسافت در نقاط ضعف گوگل است و نتايجي را نشان ميدهد كه گوگل از قرار معلوم در آن بخشها ضعيف عمل ميكند. پراباكار رغوان، سرپرست آزمايشگاههاي ياهو و استراتژي جستجوي ياهو ميگويد: «بازار موتورهاي جستجو هنوز در مراحل اوليه قرار دارد و فرصتهاي بيشماري براي خلاقيت و نوآوري وجود دارد، ما از ورود بينگ به رقابت استقبال ميكنيم.» نيت تايلر، سخنگوي گوگل هم اعلام كرد: «رقيب جدي داشتن سود بزرگي براي ما و فضاي جستجو است. باعث ميشود سختتر كار كنيم و در انتها، اين كاربران هستند كه از اين رقابت سود خواهند برد.» |
رقابت در دنیای تکنولوژی گویا هر روز شکل جدیتری به خود میگیرد تا جایی که شرکتهای بزرگ برای موفقیت در این عرصه سعی دارند خدمات و محصولات جدیدی را با امکانات متفاوت از رقبای خود معرفی کنند. در این میان اما شرکتهای مایکروسافت، گوگل و یاهو سالهاست که در زمینه موتورهای جستوجوی آنلاین رقابت نزدیکی با یکدیگر دارند تا آنجا که این رقابت به معرفی موتور جستوجوی جدی مایکروسافت در هفته گذشته منتهی شد. به این ترتیب غول نرمافزاری دنیا آخر هفته گذشته در کنفرانس All Things D که در شهر سندیهگو برگزار شده بود، موتور جستوجوی جدید خود با نام Bing را برای اولین بار معرفی کرد. این موتور جستوجوی اینترنتی که در واقع به عنوان جایگزین موتور جستوجوی قدیمی مایکروسافت یعنی LiveSearch معرفی شده، قرار است از روز سوم ماه ژوئن امسال به صورت رسمی و در تمام جهان در دسترس و مورد استفاده قرار بگیرد. Bing برای رقابت جدیتر با پربینندهترین موتور جستوجوی اینترنتی این سالها یعنی Google طراحی شده و طبق ادعای مدیران مایکروسافت میتواند رقیب خوبی برای گوگل از نظر ایجاد درآمد و البته تعداد بازدیدکنندگان به حساب بیاید. درست به همین دلیل هم هست که “استیو بالمر” مدیر عامل مایکروسافت در کنفرانس پنجشنبه گذشته در سندیهگو گفته است: “تبلیغات به عنوان یک مدل تجاری در اینترنت کمتر از آنچه باید در میان مردم عامه رواج پیدا کرده و جا افتاده است. مایکروسافت در حقیقت با معرفی این موتور جستوجوی جدید تمایل دارد، یک بار دیگر ارزش را میان شرکتهای ارائهدهنده محتوای اینترنتی، شرکتهای آگهیدهنده و موتورهای جستوجوی اینترنتی تقسیم کند.” عنکبوت یا صدای آسانسور انتخاب نام برای یک محصول یا خدمات این روزها به اندازه امکانات و قابلیتهای آن اهمیت دارد تا آنجا که متخصصان بسیاری برای انجام این کار در شرکتهای بزرگ دنیا فعالیت میکنند. مایکروسافت هم گویا برای انتخاب نام موتور جستوجوی جدیدش زمان زیادی صرف کرده و در نهایت یک نامآوای مناسب را ترجیح داده است. Bing در واقع صدای ورود یا شاید رسیدن به نتیجه دلخواه است که بهترین نمونه آن صدای آسانسور در هنگام رسیدن به طبقه مورد نظر میتواند باشد. این در حالی است که قبل از انجام انتخاب نهایی نام Bing، این موتور جستوجوی جدید با نام دیگری در میان کارمندان شرکت شناخته میشد. این موتور جستوجو در داخل شرکت با نام کومو (Kumo) که به زبان ژاپنی به معنای عنکبوت و ابر است، نامیده میشد. عنکبوت در واقع به شیوه جستوجوی این ابزار در میان منابع اینترنتی مربوط است و ابر به تکنولوژی Cloud Computing به کار رفته در این موتور جستوجوی جدید اشاره دارد. سه موتور جستوجوی بزرگ با امکانات مشابه اما متفاوت ورود و معرفی موتور جستوجوی Bing، اما این روزها این سوال را به ذهن کارشناسان و حتی اغلب کاربران عادی اینترنت متبادر میکند که آیا واقعا این ابزار جدید میتواند به ساختار موتورهای جستوجوی گوگل و یاهو ضربه جدی وارد کند. این ابزار جستوجوی اینترنتی جدید از قابلیتهای تازهای هم برای تحقیق و بررسی در دنیای مجازی بهره میبرد که میتواند آن را از رقبایش متفاوت کنند. ابزار جستوجویی مانند ExplorerPane برای تصحیح و اصلاح نتایج جستوجو، Quick Preview برای نیم نگاه انداختن به یک وبسایت قبل از آنکه آن را به طور کامل بازدید کنند و Sentiment Extraction برای جستوجو در بررسیهای دقیق یا Reviewهای یک محصول خاص امکانات جدید Bing هستند که میتوانند نظر بسیاری از کاربران را به آن جلب کنند. با این همه اما بسیاری از کارشناسان همچنان معتقدند که موتور جستوجوی گوگل به خاطر ارائه نتایج جستوجوی قابلاطمینان و دقیق و البته ابزار جستوجوی منحصر به فرد مانند Street Views زرنگتر از رقبای دیگرش به نظر میرسد. از طرفی یاهو هم با ارائه خدمات جستوجوی خود بر اساس استفاده از شبکه قدرتمند محتوایی خود کاربران و طرفداران خاص خودش را دارد. درست به همین دلایل هم هست که مقایسه شباهتها و تفاوتهای این سه رقیب حالا احتمالا برای اغلب کاربران اینترنت جالب توجه میتواند باشد. با این اوصاف بعضی از ویژگیها و امکانات این موتورهای جستوجوی اینترنتی را با یکدیگر مقایسه میکنیم. صفحه اصلی یا ورود صفحه اصلی Bing طراحی متفاوت و به اصطلاح پر زرق و برقی دارد که بیشتر به خاطر عکس پس زمینه آن مورد توجه است. این تصویر پسزمینه هر روز تغییر میکند و قسمت مربوط به ورود عبارت یا کلمه مورد جستوجو در بالا و قسمت چپ این صفحه قرار دارد. قسمت پایین این صفحه، اما به لینکهای مربوط به دیگر وبسایتهای کاربردی مایکروسافت مانند MSN، Windows Live و Bing Travel تعلق دارد. با این حال اما موتور جستوجوی گوگل، هم با صفحه اصلی ساده و پسزمینه سفید رنگش قابلتوجه است. لینکهای مختلف در صفحه اول گوگل اما با رنگ آبی و در نواری در بالای صفحه تعبیه شدهاند. در مقابل این سادگی صفحه اول یاهو، اما بسیار شلوغ و آشفته به نظر می رسد. این نشاندهنده تمایل این شرکت به امور دیگری غیر از جستوجوی اینترنتی هم هست. نتایج جستوجو نتایج جستوجو در موتور جستوجوی Bing به دو بخش اصلی تقسیم میشود. پنل سمت چپ صفحه شامل Quick Tabs است که امکان تمرکز روی موضوع مورد نظر را به طور دقیق و با سرعت زیاد در اختیار کاربرانش میگذارد و بخش دوم که در قسمت وسط صفحه قرار گرفته، مربوط به نتایج جستوجو دستهبندی شده است که نتایج را به گروههایی مرتبط با یکدیگر تقسیم میکند. در برابر نتایج جستوجو در گوگل و یاهو بسیار شبیه به هم بوده و دستهبندی مشخصی ندارد. این نتایج جستوجو بر اساس میزان ارتباط با موضوع مورد نظر کاربر از بالا به پایین قرار میگیرند. اصلاح نتایج جستوجو ابزار اصلاح جستوجو در Bing که به عنوان Explorer Pane شناخته میشود در هر مرحله جستوجو نمایش داده میشود، این در حالی است که در گوگل و یاهو برای دسترسی به این لینکها باید روی هر کدام کلیک کرد. در این دو موتور جستوجو در واقع این لینکها تنها در صفحه اول جستوجو در دسترس قرار دارند. اطلاعات محلی Bing در این مورد قابلیتهای جدیدتری را به کاربرانش میدهد که بر اساس آنها می توانند با سرعت بیشتری اطلاعات را به دست بیاورند. این موتور جستوجو در واقع با استفاده از منابع زیاد و مختلف میتواند حتی اطلاعات مربوط به کیفیت غذا، فضا و حتی اندازه یک رستوران محلی را در اختیار کاربرانش قرار بدهد. گوگل اما این کار را با استفاده از نقشه، رتبهبندی بهوسیله ستاره دادن، عکس یا اطلاعات داده شده توسط خود کاربران انجام میدهد و در مقابل یاهو تنها اطلاعات محدودی را درباره مکان آن رستوران نمایش میدهد. جستوجوی نقشه نقشهها در Bing در حقیقت چیز متفاوتی در مقایسه با آنچه در Live Search وجود دارد نیستند، اما این موتور جستوجوی جدید مانند گوگل از ابزارهای مختلفی برای کنترل مکان و یافتن آن بهره میبرد. با این حال اما گوگل همچنان به خاطر وجود قابلیتهایی مانند StreetView همچنان طرفداران بسیاری دارد. Bing هم مجهز به امکانی به نام BirdEyeView است که عکسهای بسیار زیاد و متنوعی از شهرهای مختلف دنیا را در خود دارد. یاهو اما در قسمت چپ صفحه اصلی خود امکان جستوجو در نقشه را برای کاربرانش فراهم آورده است. با این وجود، اما این ابزار یاهو تنها تصاویر ماهوارهای از نقاط مختلف دنیا را برای کاربرانش به نمایش میگذارد.با تمام اینها موتور جستوجوی جدید مایکروسافت امکانات متفاوت دیگری را هم به کاربرانش میدهد که تنها تا زمان عرضه عمومی و استفاده از آنها نمیتوان به درستی و دقیق آنها را مورد بررسی قرار داد. با این اوصاف بهتر است تا اوایل ماه ژوئن منتظر بمانیم. منبع : دنیای اقتصاد به نقل از www.pcworld.com و www.forbes.com |
واقعا سایت توپیه.
اگه بدونین شبیه کی شدم (نیکلاس کیچ) . شوخی کردم. ولی واقعا سایت توپیه. فکر کنم سید کوروش هم به خاصر این عکس آواتورش رو (که عکس خودش بود) عوض کرد تا نکنه بیام و تو این سایت استفاده کنیم، بعد بفهمیم که شبیه ....... شده. |
رتبه سایتها در موتورهای جستجوگر
هر بار كه شما توسط موتور جستجو، جستجويي انجام مي دهيد، عنكبوت(spider) آن به آهستگي از ميان ميليون ها فهرست حركت مي كند و آنهايي را كه بيشتر با مورد جستجوي شما ارتباط دارند را به تصوير مي كشد .حتي ميزان اين ارتباط نيز مورد ارزشيابي قرار مي گيرد تا مرتبط ترين سايتها در ابتدا به نمايش درآيند. البته موتور جستجو همواره درست عمل نمي كند. گاهي صفحات نا مربوط به چشم مي خورند و در مواردي براي يافتن آنچه مي خواهيد بايد جستجوي بيشتري انجام دهيد. موتور جستجو در يافتن اطلاعات عمل شگفت انگيزي انجام ميدهد.
براستي موتورهاي جستجو عمل ارزش گذاري ورتبه بندي را چگونه انجام ميدهند ؟ پاسخ از اين قرار است : توسط يك گروه دستورالعملها كه الگوريتم خوانده مي شوند. هر موتور جستجو از گروه متفاوتي از الگوريتم ها استفاده مي كند، اما همه آنها از اصول عمومي خاصي پيروي مي كنند. از آنجا كه موتورهاي جستجو قصد دارند توجه مشتريان را مجددا به خود جلب كنند، تلاششان بر اين است كه نتايج جستجوي مرتبط تري را پيدا کنند. يك راه براي دستيابي به اين هدف توجه به مكان قرارگيري و تراكم عبارات جستجو يا كلمات كليدي در يك صفحه وب است. موتور جستجو بررسي مي كند که كلمات كليدي در بخش عنوان(Title)، بخش سرآغاز(Head)، در ابتداي پاراگراف يا در متن آمده اند. فرض بر اينست كه صفحات مرتبط با کلمات مورد جستجو، اين عبارات كليدي را برجسته تر و چشمگيرتر مورد استفاده قرار مي دهند. موتور جستجو تحليل مي كند كه كلمات كليدي در مقايسه با ديگر كلمات چند مرتبه به كار رفته اند. Meta tag ها نيزممكن است در تشخيص ارتباط نقش داشته باشند، هرچند بسياري از موتورهاي جستجو آنها را در نظر نمي گيرند و آن دسته كه به آن اهميت مي دهند، ممكن است به صورتهاي متفاوتي آنها را ارزشگذاري كنند. امكان دارد موتورهاي جستجو، وب سايتها را بعلت Spamming جريمه يا تحريم كنند. كلمات كليدي يكنواخت و خسته كننده ، كلمات كليدي تكراري در انتهاي يك صفحه و ارايه كردن صفحه اي كه به صورت اتوماتيك مخاطب را به صفحه اي با محتواي كاملا متفاوت هدايت كند، همه اشكالي از Spamming هستند. در پايان، موتورهاي جستجو تحليل ارتباط (Link Analysis) را نيز در مشخص كردن ارزشيابي خود به كار مي برند. با تحليل اينكه صفحات چگونه به يكديگر متصل مي شوند يك موتور جستجو مي تواند مشخص كند که آن صفحه در چه مورد است و آيا آن صفحه به اندازه كافي مهم است كه در رتبه بندي به حساب آيد يا خير؟ مهم است كه به ياد داشته باشيم , با اينكه اكثر موتورهاي جستجو از اصول يكساني پيروي مي كنند، الگوريتم هاي متفاوتي دارند. به اين دليل است كه انجام يك جستجو در موتورهاي جستجوي مختلف، نتايج بسيار متفاوتي به بارمي آورد. براي مثال ممكن است برخي موتورهاي جستجو تعداد بيشتري از صفحات وب را فهرست کنند و برخي ديگر در فاصله هاي زماني کم تر اين کار را انجام دهند. نتيجه نهايي اينكه هيچ دو موتور جستجويي فهرست يكساني از صفحات وب ندارند. بنابراين رتبه بندي در موتورهاي جستجو ممكن است بسيار متفاوت باشد. به همين دليل طراحان سايتهاي وب، معمولا يک موتور عمده را هدف قرار مي دهند و سعي مي کنند طراحي سايت را به گونه اي انجام دهند که براي آن موتور خاص، مناسب تر باشد و رتبه بهتري داشته باشد و البته با اين کار، به احتمال زياد، رتبه در برخي موتورهاي ديگر را از دست خواهد داد. حتي برخي از طراحان ممکن است موتورهاي منطقه اي و تخصصي خاصي را هدف قرار دهند و برايشان امتياز در موتورهاي عمومي اهميت نداشته باشد. شما بايد قبل از اعمال هرگونه تنظيمات در سايت خود، اول به اين نکته که کدام موتور جستجو را هدف قرار مي دهيد توجه کنيد سپس سايت خود را براي بدست آوردن حداکثر امتياز در آن موتور بهينه کنيد. |
مفاهيم پايه موتورهاي جستجو
قبل از شروع گفتگو درباره هر موضوعي نياز به آن است كه مفاهيم اوليه و اصطلاحات رايج در آن موضوع، بيان شود تا طرفين گفتگو راحت تر به منظور يکديگر پی ببرند. ما نيز در اين بخش، بعضي از مفاهيم و اصطلاحاتي را كه در صفحه های ديگر سايت از آنها به كرات استفاده مي شود، شــرح داده شده است.
Spider: Tinny Text:نرم افزاري است كه كار جمع آوري اطلاعات از صفحات مختلف را بر عهده دارد. Crawler: نرم افزاري كه مسير حركت اسپايدر را مشخص مي كند. Directory : فهرست. نوعي از موتورهاي جستجوگر كه پايگاه داده آن توسط ويراستاران تكميل مي گردد. Keyword: بــه واژه ها ي مهم (کليدی) هر صفحه گفته مي شود. اما غالبا" منظور كلماتي است كه دوست داريم با آنها رتبه هاي مناسبي كسب كنيم. Keyword Density: چگالي كلمه، منظور تعداد دفعات تكرار واژه های كليدي در مقايسه با ساير كلمات متن است. Keyword Staffing: تكرار يك كلمه به دفعات و پشت سر هم به منظور بالا بردن چگالی کلمه. اين کار تقلب محسوب می شود. نوشتن متن با اندازه های بسیار کوچک و ریز به گونه ای که کلمات بسیاری بدین ترتیب در یک خط قرار داده می شود و به سختی نیز در صفحه قابل رویت هستند. نوشتن مطالب به اين صورت، تقلب محسوب است. Invisible Text: متن نامرئی. منظور استفاده از متن هاي همرنگ با پس زمينه صفحه است. متن هايی که از ديد کاربران مخفی می ماند. به عنوان مثال اگر پس زمينه يك صفحه سياه است، متن صفحه نيز با رنگ سياه نوشته می شود تا ديده نشود . اين نوع متن ها از مصاديق تقلب می باشند. Spam: تقلب، به تمام تلاش هايي گفته مي شود كه به كمك آن سعي مي شود از راه هاي غير معمول، رتبه هاي بالايي كسب شود. يا در اختيار گذاردن اطلاعاتي كه موتورهاي جستجوگر آنرا دوست ندارند (اطلاعات ناخواسته) مانند تكرار يك كلمه به دفعات و پشت سر هم، استفاده از متن هاي هم رنگ زمينه و ... ALT tag: محتواي اين شناسه، متني است كه يك عكس را توضيح مي دهد. Deep Crawl: به معناي اين است كه موتور جستجوگر، مي تواندصفحات زيادي از يك سايت را در پايگاه داده اش قرار دهد. موتور جستجوگر هرچه پايگاه داده اش بزرگتر باشد، صفحات بيشتري از يك سايت را می تواند در پايگاه داده اش قرار دهد. همه موتورهاي جستجوگر داراي اين ويژگي نمي باشند. Robots.txt: با اين فايل متني و ساده، ميزان دسترسي موتور جستجوگر به محتواي يك "سايت" را مي توان كنترل كرد. META robots tag: به كمك اين شناسه ميزان دسترسي موتور جستجوگر به محتواي يك "صفحه" را مي توان كنترل كرد. Link: پيوند. در واقع پلی بين دو صفحه است. به کمک آن می توان از يک صفحه به صفحه ديگر رفت. Link Popularity مقصود اين است که چه تعداد از سايت هاي ديگر به سايتي مشخص لينك کرده اند يا اينكه از چند سايت ديگر می توان به کمک پيوندها به سايتی مشخص رفت. Link Reputation: اشاره به اين دارد كه ساير سايتها درباره سايتي كه بدان لينك داده اند، چه مي گويند. عموما در اين موارد عنوان، متن لينك و كلمات اطراف لينك در سايت مقصد، بررسي مي شوند. LearnFrequency: بعضي از موتورهای جستجوگر مي توانند تشخيص دهند كه محتواي صفحات پس از چه مدتی تغيير مي كند (به روز می گردد) و بعد از آن مدت به آن صفحات مراجعه می کنند. URL-UniformResource Locator: به آدرس منحصر به فرد هر منبع موجود در اينترنت گفته می شود. اين منبع می تواند يک صفحه وب، يک فايل متنی و... باشد StopWord: به کلماتی گفته می شود که در کل اینترنت از آنها بسيار استفاده شده است. کلماتی نظير the, a, an, web, www, home page و ... Metatags: به كمك اين شناسه ها، اطلاعاتي از صفحه در اختيار بينندگان (موتور جستجوگر، مرورگرها و ...) قرار داده مي شود. METAKeywords: به كمك آن، كلمات کليدی صفحه در اختيار موتورهاي جستجوگر قرار داده می شود. META Description به كمك آن، توضيحي مختصر از صفحه در اختيار موتورهاي جستجوگر قرار داده می شود. Stemming: به معناي اين است كه موتور جستجوگر مي تواند صورت هاي مختلف يک كلمه را جستجو كند. به عنوان مثال با جستجوي swim موتور جستجوگر به دنبال swimmer ، swimming نيز مي گردد. همه موتورهاي جستجوگر داراي اين ويژگي نمي باشند. Rank: رتبه يك صفحه در نتايج جستجو است زماني كه جستجويي مرتبط با محتواي آن صفحه انجام مي شود. Spamdexing: مختصر شده spamindexing است. منظور طراحی و معرفي صفحاتي به موتورهاي جستجوگر است كه كيفيت نتايج جستجو را پايين مي آورند. موتورهای جستجوگر تمايل دارند که كاربران بارها و بارها به آنها مراجعه كنند و كيفيت بالاي نتايج مي تواند اين روند را تضمين كند. لذا آنها هركدام به نوعي سعي در تشخيص صفحاتي دارند كه كيفيت نتايج جستجو را پايين مي آورد. برخی از اين موارد عبارتند از: ساختن صفحاتي كه همگي داراي محتواي يكساني اند، تكرار يك كلمه بيش از حد و ... Comment: توضيحاتي است كه طراحان سايت در لا به لاي كدهاي HTML مي گنجانند تا برای فهميدن وظيفه بخش هاي متفاوت كدهای HTML در مراجعات آتی نيازی به صرف وقت بسيار نداشته باشند. |
چطور موتورهاي جستجو كار ميكنند
وقتی جستجویی در یك موتور جستجوگر انجام و نتایج جستجو ارایه میشود، كاربران در واقع نتیجه كار بخشهای متفاوت موتور جستجوگر را میبینند. |
نحوه کار موتورهای جستجو(اسپایدر)
نحوه کار موتورهای جستجو(اسپایدر)
موتورها جستجو اینترنت ، سایت ها به خصوص در اینترنت است و طور طراح شده که به افراد کمک می کنند تا اطلاعات مورد نیازشان را که در سایت ها دیگر ذخیره شده است ، بیابند. به طور حتم شما هم بارها ، زمان که به یک مقاله ای نیاز دارید یا حتی برا یافتن معنی اصطلاح ، پشت رایانه نشسته اید با استفاده از اینترنت آن را در مدت زمان کوتاه پیدا کرده اید ، اما آیا تا به حال فکر کرده اید چگونه در عرض چند ثانیه توسط یک موتور جستجو انبوه از اطلاعات در اختیار شما قرار می گیرد؟ صدها میلیون صفحه در اینترنت در دسترس است و اطلاعات را با تنوع شگفت انگیز از موضوعات در اختیار کاربر ارائه می دهند. زمان که شما می خواهید درباره یک موضوع خاص اطلاعات کسب کنید ، چگونه می دانید که چه صفحات را باید بخوانید؟ » شیوه عملکرد موتورها جستجو تفاوت های در شیوه عملکرد موتورها جستجو مختلف وجود دارد ، اما همه آن ها ۳ وظیفه اصلی را انجام می دهند: ۱) در اینترنت ، یا بخش ها برگزیده ها از اینترنت ، براساس کلمات مهم جستجو را انجام می دهند. ۲) یک فهرست از کلمات و مکان هایی که پیداکرده اند تهیه می کنند. ۳) این امکان را برا کاربران فراهم می کنند تا کلمات یا مجموعه ا از کلمات مورد نظر خود را که در فهرست یافت می شود جستجو کنند. » موتورها جستجو اولیه موتورها جستجو اولیه یک فهرست شامل تنها چند صدهزار صفحه و فایل نگهدار می کردند و در روز شاید یک یا ۲هزار بازدیدکننده داشتند. امروزه یک موتور جستجو خوب ، صدها میلیون صفحه را فهرست می کند و در روز پاسخگو ده ها میلیون جستجو کننده است. حالا باید ببینیم چگونه این مسئولیت مهم انجام می شود و چگونه موتورها جستجو اینترنت ، بخش ها مختلف را به کار می گیرند تا ما بتوانیم اطلاعات مورد نیاز خود را در اینترنت بیابیم. در جستجو میان صدها میلیون صفحه قبل از این که یک موتور جستجوگر بتواند به شما بگوید که یک فایل در کجا قرار دارد ، باید آن فایل پیدا شود. » روبات عنکبوتی یک موتور جستجوگر برای یافتن اطلاعات از میان صدها میلیون صفحه که در شبکه اینترنت وجود دارد ، روبات نرم افزار خاص به نام اسپایدر(عنکبوت) را به کار می گیرد تا فهرستی از کلمات را که در سایت ها اینترنت یافت می شود ایجاد کند. فرآیند که یک اسپایدر فهرست خود را ایجاد می کند ، Web crawling نامیده می شود. برای ایجاد و نگهداری یک فهرست مفید و مناسب از کلمات ، یک اسپایدر موتور جستجوگر باید صفحات بسیار زیاد را بررسی کند. حال سوالی که این جا پیش می آید این است که چگونه هر اسپایدر مسیر خود را در اینترنت آغاز می کند؟ در پاسخ باید گفت که به طور معمول نقطه شروع ، فهرستی از صفحات است که توسط سرورها زیاد استفاده می شود و هم چنین صفحات که معروف تر است. » طرز عملکرد اسپایدر از یک سایت عموم شروع می شود و کلمات موجود در صفحات آن را فهرست می کند و هر لینک را که در آن سایت یافت می شود دنبال می کند. به این طریق سیستم جستجوگر به سرعت شروع به حرکت می کند و در بخش های که بیشتر از همه مورد استفاده قرار می گیرد ، حرکت می کند.برای نمونه گوگل به عنوان یک موتور جستجوگر علم آغاز به کار کرد. سرج برین و لورنس پیج از مدیران گوگل بیان کردند که اسپایدرها سیستم آن ها با چه سرعت می تواند کار کند. آن ها سیستم اولیه خود را به گونه ای ساختند که از چندین اسپایدر استفاده کند ، که به طور معمول ۳ تا در یک زمان بود.در گوگل هر اسپایدر می توانست به حدود ۳۰۰ صفحه شبکه که در یک زمان باز بود اتصال برقرار کند. در بهترین عملکرد خود ، با استفاده از ۴ اسپایدر ، این سیستم می توانست در هر ثانیه به ۱۰۰ صفحه متصل باشد. زمان که اسپایدر گوگل یک صفحه HTML را مشاهده می کرد ، به ۲ نکته توجه می کرد: کلمات درون صفحه ، که در کدام مکان کلمات پیدا شده است و کلمات که در عنوان اصل یا عناوین فرع و یا سایر موقعیت های که دارا اهمیت نسب است ، قرار دارد که برای جستجو بعد کاربر مورد توجه خاص قرار می گرفت.اسپایدر گوگل هر کلمه معن داری در صفحه را فهرست و از کلماتthe ، an و a صرف نظر می کرد. دیگر اسپایدرها از روش ها متفاوت استفاده می کردند. در کل تمام این روش ها سعی می کند تا عملکرد اسپایدر را سریع تر کند و به کاربران اجازه بدهد تا با کارای بهتر جستجو کنند.به عنوان مثال ، بعض اسپایدرها کلمات را که در عنوان ها ، عنوان ها فرع و لینک ها وجود دارد یا کلمات که بارها در صفحه تکرار می شود فهرست می کنند؛ سایت Lycos از این روش استفاده می کند. سایر سیستم ها ، از قبیل AltaVista ، هر کلمه در صفحه ، شامل the ، an و a و سایر کلمات را که بی اهمیت است هم فهرست می کنند. » ایجاد فهرست زمان که اسپایدرها وظیفه یافتن اطلاعات از صفحات اینترنت را به اتمام رساندند موتور جستجو باید این اطلاعات را به شکل که مفید است ، ذخیره کند (البته باید در نظر داشت که این وظیفه هرگز تمام نمی شود ، خاصیت تغییر دائم اینترنت به این معنی است که اسپایدرها همیشه در حال حرکت و جستجو هستند). ۲ مولفه کلید برای در دسترس قرار دادن اطلاعات جمع آوری شده برای کاربران وجود دارد: اطلاعات ذخیره شده با داده ها و روش که توسط آن اطلاعات فهرست می شود. در آسان ترین حالت ، موتور جستجوگر می تواند تنها کلمه و URL را ذخیره کند. در حقیقت ، این روش برای موتور با کاربرد محدود است ، زیرا در این حالت راه وجود ندارد برای این که تعیین کند آیا کلمه در بخش مهم یا بخش بی اهمیت از صفحه استفاده شده است ، آیا کلمه تنها یک بار یا چندین مرتبه تکرار شده است یا صفحه لینک های به صفحات دیگر دارد که شامل آن کلمه است. به عبارت دیگر راه برا ایجاد فهرستی رتبه بندی شده که تلاش می کند تا مفیدترین و بهترین صفحات را در بالا فهرست نتایج جستجو قرار بدهد ، وجود ندارد. » حرکت به سوی کارایی بهتر برای به دست آوردن نتایج بهتر ، بیشتر موتورها جستجو اطلاعات بیشتر علاوه بر کلمه و URL ذخیره می کنند. موتور ممکن است تعداد دفعات را که کلمه در صفحه تکرار شده است ذخیره کند ، یا ممکن است مقدار را به هر ورود اختصاص بدهد و زمان که کلمات در عناوین ، عنوان ها فرع و لینک ها ظاهر می شود ارزش اختصاص یافته به آن ها بیشتر می شود. هر موتور جستجوگر تجار ، فرمول متفاوت برای ارزش گذار کلمات فهرست خود دارد. این مسئله یک از دلایل است که موجب می شود جستجو یک کلمه در موتورها جستجوگر متفاوت ، فهرست ها متفاوت را ارائه بدهد و صفحات با ترتیب ها متفاوت ارائه شود. داده ها برای صرفه جوی در فضا ذخیره ساز رمزگذار می شود. به عنوان مثال در صفحه گوگل اطلاعات از قبیل این که آیا کلمه با حروف بزرگ بوده است ، اندازه فونت آن ، موقعیت کلمه و سایر اطلاعات که به رتبه بند آن کمک می کند به صورت بیت و بایت ذخیره می کند ، در نتیجه میزان بسیار زیاد از داده ها می تواند به شکل بسیار فشرده ای ذخیره شود. بعد از این که اطلاعات فشرده شد ، برا فهرست شدن آماده است. هدف از ایجاد یک فهرست این است که باعث شود تا بتوانیم اطلاعات را با سریع ترین حالت ممکن پیدا کنیم. » ایجاد فهرست وب سایت ها به طور کلی ، تنها چند راه برای ایجاد فهرست وجود دارد ، اما یک از مهم ترین و موثرترین روش ها ، ایجاد جدول hash است. در این روش فرمول به کار می رود تا به هر کلمه یک ارزش عدد اختصاص دهد. پرسش و جستجو انجام شده در این روش توسط کاربر خیل ساده است ، حتی یک کلمه. برای پرسش ها پیچیده تر لازم است تا از عملگرها بولین (AND ORNOT NEAR) استفاده کرد تا بتوان شرایط جستجو را گسترش داد. به طور خلاصه عملکرد یک موتور جستجو به این صورت است: نرم افزار اسپایدر با جستجو در سایت ها مختلف فهرستی از کلمات و مکانی که قرار دارد فراهم می کند ، سپس بر اساس سیستم ارزش گذار خود فهرست رتبه بند شده تهیه ، داده ها را رمزگذار و سرانجام اطلاعات را برا دسترس کاربران ذخیره می کند.در جستجوهای که از عملگرها بولین استفاده می شود ، جستجوها لفظ است. موتور به طور دقیق همان کلمات یا عبارت را که وارد شده است جستجو می کند. زمان که کلمات ورود دارا چندین معنی است ، جستجو صحیح آن ها مشکل است. در این حالت ، اگر برای شما تنها یک از معانی آن کلمه مهم باشد ، شما نمی خواهید سایر صفحات را که شامل معانی دیگر کلمه است ببینید ، می توانید یک جستجو لفظ ایجاد کنید که تا حدود معنی ها ناخواسته را حذف کند ، اما بهتر این بود که خود موتور جستجو می توانست این کار را انجام بدهد. یک از حوزه ها تحقیق در موتورها جستجوگر ، جستجو براساس مفهوم است. در یک موتور جستجوگر مبتنی بر مفهوم ، اطلاعات ذخیره شده برا هر صفحه ، بیشتر است. هنوز بسیار از گروه ها تلاش می کنند تا نتایج و عملکرد این نوع از موتورها جستجو را افزایش دهند. قلمرو دیگر که پژوهش گران درباره آن تلاش می کنند ، پرسش ها به زبان طبیعی نامیده می شود. |
فایرفاکس یا اکسپلورر؟
فایرفاکس یا اکسپلورر؟ |
اما به نظر من گوگل کروم یه چیز دیگه است .
|
منم صد در صد میگم ایر فاکس. البته اپرا هم بعضا مزایایی نسبت به فایرفاکس داره که نمیشه نادیده اش گرفت.
|
من خودم همیشه از فایر فاکس استفاده میکنم!! اما شنیدم که گوگل کروم هم عالیه و حتی سرعت لود شدنش از فایر فاکس هم بیشتره و یه خوبیه دیگه هم که داره اینه که رم کمتری هم استفاده میکنه!اما انقدر به فایر فاکس عادت کردم نمی تونم گولگل کروم استفاده کنم!!;)
|
من رو لپ تاپم گوگل کروم دارم. خوبه ولی خیلی لخته. هیچ ابزاری نداره. فایر فاکس یه چیز دیگه است. سرعت لود شدن رو نمیدونم چون از اینترنت پر سرعت استفاده میکنم ملموس نیست. اینو میدونم که اپرا تو سرعت برقراری کانکشن و فرستادن دستور خیلی قوی تر از فایر فاکسه. تو بازی های استراتژیک از اپرا استفاده می کنن. چون میتونی مثلا 4 تا حمله تو 4 صفحه مختلف رو تو کمتر از یه ثانیه انجام بدی.
|
ادبيات موتورهاي جستجو چيست؟
افزايش استفاده از موتورهاي جستجو و تعدد آنهاباعث شده تا كاربران با آگاهي وشناخت كامل به سراغ آنها رفته و با مفاهيم و اصول اوليه آنها آشنا شوند. |
اکنون ساعت 07:14 PM برپایه ساعت جهانی (GMT - گرینویچ) +3.5 می باشد. |
Powered by vBulletin® Version 3.8.4 Copyright , Jelsoft Enterprices مدیریت توسط کورش نعلینی
استفاده از مطالب پی سی سیتی بدون ذکر منبع هم پیگرد قانونی ندارد!! (این دیگه به انصاف خودتونه !!)
(اگر مطلبی از شما در سایت ما بدون ذکر نامتان استفاده شده مارا خبر کنید تا آنرا اصلاح کنیم)