پی سی سیتی

پی سی سیتی (http://p30city.net/index.php)
-   اینترنت و شبکه INternet & network (http://p30city.net/forumdisplay.php?f=8)
-   -   تاپیک کلی جستجوگرها (http://p30city.net/showthread.php?t=50)

دانه کولانه 08-31-2007 10:13 AM

تاپیک کلی جستجوگرها
 
اينترنت در سال 1960 ميلادي در قالب شبكه‌ آرپانت در ايالات متحده، با اهداف نظامي و تحقيقاتي راه‌اندازي شد و كامپيوترهاي ارتش و در مرحله بعد مراكزي نظير پنتاگون و C.I.A را به يكديگر متصل كرد. عصر امروز را عصر اطلاعات خوانده‌اند. اين عنوان از اين رو به عصر جاري اطلاق شده است كه در سال‌هاي اخير- به خصوص پس از سال 1970 - سرعت انتقال اطلاعات بر سرعت انتقال فيزيكي پيشي گرفته است. شايد بتوان آغاز عصر اطلاعات را اختراع مورس دانست كه در سال 1837 اتفاق افتاد. به دنبال آن، ماشين حساب مكانيكي، تلفن و ضبط صوت و تلويزيون ابداع شد اما اختراع كامپيوتر شخصي است كه پيامدهاي گسترده‌اي را در تمام سطوح زندگي انسان به همراه آورد؛ پيامدهايي كه اصطلاحاً انقلاب ديجيتال خوانده مي‌شود.





. در واقع تاثير انقلاب ديجيتال در ابعاد فرهنگي، اقتصادي، اجتماعي و فناوري به اندازه‌اي است كه با انقلاب صنعتي قابل مقايسه است. انقلاب ديجيتال نيمه دوم قرن بيستم شاهد اختراع و تكامل كامپيوتر بود. كامپيوترهاي اوليه اندازه زيادي را در حد يك اتاق اشغال مي‌كردند و سقف قدرت پردازش آنها در پايين‌ترين حد كامپيوترهاي كوچك امروزي بود اما تدريجا با تكامل در روند ساخت كامپيوتر، اين وسيله كوچك و كوچك‌تر و ارزان و ارزان‌تر شد. اينترنت در ابتدا در داخل ارتش آمريكا و براي تبادل اطلاعات ابداع شد، اما در دهه 1980 پنتاگون اجازه استفاده از آن را به دانشگاه‌ها و مراكز تحقيقاتي آمريكا داد. اين آغاز جهاني شدن شبكه‌اي بود كه ظرف مدت كوتاهي بسياري از مناسبات را دستخوش دگرگوني كرد. در سال‌هاي اوليه دهه 1990 WWW WORD WIDE WEBرا تيم برنزرلي- محقق انگليسي- اختراع كرد و در واقع همين قابليت جديد بود كه استفاده از اينترنت را براي همگان امكان‌پذير كرد. اما امروز در يك روند پرشتاب‌، با افزودن 20/4 ميليون سايت جديد در نيمه‌ اول سال ‌2007 ميلادي، تعداد سايت‌هاي اينترنتي در سراسر كره خاكي به بيش از ‌225 ميليون سايت افزايش يافته است.

ورود به ايران
از زمان ورود تكنولوژي اينترنت به جامعه ايراني حدود ده سال مي‌گذرد. در آغاز هزاره سوم، اينترنت و دستاوردهاي گوناگون آن، نقش انكارناپذيري در تحولات اطلاع‌رساني و به دنباله آن تحولات دگرگوني‌هاي اجتماعي، اقتصادي، فرهنگي و سياسي ايفا كرده است. اينترنت در ايران قبل از سال 1370 توسط سازمان فيزيك نظري راه‌اندازي و تعداد محدودي از دانشگاه‌ها به اين شبكه متصل شدند اما 10 سال بعد در سال 1380 به شوراي عالي انقلاب فرهنگي ابلاغ شد تا اين شورا اقدامات لازم را در مورد كنترل اينترنت طرح و برنامه‌ريزي كرده و در مدت زمان يك ماهه، گزارشي ارايه شود. بدين ترتيب از سال 1380 بحث‌هايي پيرامون *****ينگ مطرح و پيرو آن كميته مصاديق پايگاه‌هاي غيرمجاز اينترنتي، زير نظر شوراي عالي انقلاب فرهنگي تشكيل شد. وزارت اطلاعات به عنوان دبير اين كميته و سازمان صدا و سيما و وزارت فرهنگ و ارشاد اسلامي اعضاي ثابت و اصلي كميته مصاديق پايگاه‌هاي غيرمجاز اينترنتي هستند. نماينده شوراي عالي انقلاب فرهنگي و سازمان تبليغات اسلامي نيز دو عضو ديگر كميته مصاديق پايگاه‌هاي غيرمجاز اينترنتي‌اند. مجموعه مقررات پالايش و *****ينگ مراكز اينترنتي، مصوب سال 1381 شوراي عالي انقلاب فرهنگي است. در اين مورد به وزارت ارتباطات و فناوري اطلاعات، آيين‌نامه‌اي ابلاغ شد كه مراكز اينترنتي بر اساس آيين‌نامه مذكور مجوز بگيرند و قرارداد تاسيس مراكز اينترنتي را كه در آن تعهداتي ذكر شده را امضا ‌كنند. مرجع صدور مجوز به مراكز اينترنتي نيز وزارت ارتباطات و فناوري و اطلاعات است. و حالا با خوب و بدهاي زياد اين پديده، مديركل مديريت و پشتيباني فني شبكه شركت فناوري اطلاعات (ديتا)، از *****ينگ بيش از 10 ميليون سايت اينترنتي توسط مراجع ذي‌صلاح اعم از قوه قضاييه، کميته‌ تعيين مصاديق پايگاه‌هاي غير مجاز اينترنتي و بانک اطلاعاتي نرم‌افزار پالايش خبر مي‌دهد.

دسترسي ‌5/2 درصد خانواده‌‌هاي ايرانى به اينترنت
بر اساس آخرين آمارهاي موجود، در كشور ما با جمعيتى در حدود هفتاد ميليون نفر، تعداد هفت ميليون دستگاه رايانه وجود دارد. براساس برنامه توسعه تدوين شده از سوى سازمان ملل متحد، براى تجزيه و تحليل توسعه ICT در كشورهاى مختلف، چهار شاخص كلى مورد توجه و بررسى قرار مى‌گيرد. اين شاخص‌ها شامل قابليت اتصال، دسترسى، كاربرى و آزادسازى مى‌باشند.هر يك از اين مولفه‌ها داراى ابزارها و ابعاد گوناگونند كه با تجزيه و تحليل و بررسى هر يك از آنها مى‌توان به ميزان توسعه فناورى ارتباطات و اطلاعات در يك كشور پى برد. شاخص قابليت اتصال شامل وضعيت زيرساخت‌هاى فيزيكى ICT از قبيل پهناى باند اتصال به اينترنت، تعداد رايانه‌هاى شخصى و ضريب نفوذ تلفن ثابت و همراه، شاخص دسترسى، شامل مشخصه‌هاى دسترسى نظير تعداد كاربران اينترنت، متوسط دريافت، هزينه‌ تماس و ساير هزينه‌ها، شاخص كاربرى، شامل محاسبه‌ تبادل اطلاعات از طريق مخابرات و مراكز تبادل اطلاعات اينترنتى و شاخص‌ آزادسازى شامل انجام دگرگونى‌هاى ساختارى براى انطباق و جذب ICTدر بخش مخابرات و ارتباطات كشور است. براساس اين شاخص‌ها، كشورهاى جهان به سه گروه كشورهاى درپى توسعه (نظير ايران، پرو و سوريه)، كشورهاى در حال توسعه ( نظير امارات متحده عربى) و كشورهاى توسعه يافته يا پيشتاز در فناورى ارتباطات و اطلاعات (نظير نروژ، آمريكا و ايسلند)تقسيم‌بندى مى‌شوند. فرنود حسينى، كارشناس شبكه‌ اطلاع‌رسانى ايران، با اشاره به اينكه تعداد سايت‌هاى اينترنتى راه‌اندازى شده، مى‌تواند يكى از شاخص‌هاى توسعه‌ كاربرد ابزارهاى اطلاع‌رسانى در كشور تلقى شود، مي‌گويد: ايران با برخوردارى از جمعيتى جوان، در چهار ساله گذشته رشد بسيار سريع و حيرت انگيزى را در ثبت شناسه‌هاى اينترنتى داشته است. اغلب ارگان‌ها و سازمان‌هاى دولتى، اكثر شركت‌هاى خصوصى و بسيارى از افراد حقيقى، اقدام به استفاده از سرويس‌هاى اينترنتى در جهت ثبت شناسه و اجاره‌ فضاى مجازى كرده‌اند و برنامه‌هاى اطلاع‌رسانى خود را از اين طريق دنبال مى‌كنند. البته به علت حجم روز افزون ثبت شناسه توسط ايرانيان، هنوز آمار دقيق و روشنى از تعداد شناسه‌هاى ثبت شده وجود ندارد. طبق آخرين آمار موجود در كشور ما با جمعيتى در حدود هفتاد ميليون نفر تعداد هفت ميليون دستگاه رايانه وجود دارد. يكى ديگر از ابعاد اين شاخص، ميزان واردات رايانه‌هاى شخصى به كشور مى‌باشد كه در اين زمينه نيز كشور ما از وضعيت بسيار مناسبى برخوردار است. البته در چند سال اخير روند ايجاد خطوط مونتاژ نيز سيرى صعودى داشته است. فرنود حسيني با اشاره به رشد ‌30/7 درصدى تعداد تلفن‌هاى ثابت و رشد ‌68/6 درصدى آمار تلفن‌هاى همراه تا تير ماه جارى مي‌گويد: تعداد خطوط تلفن يك عامل محدودكننده‌ براى اتصال و دسترسى به اينترنت محسوب مى‌شود. از سوى ديگر مى‌توان ظرفيت توسعه خطوط اينترنت را بر اين اساس برآورد كرد. در شاخص تعداد كاربران اينترنت نيز تعداد كاربرانى كه از يك اشتراك اينترنت استفاده مى‌كنند مورد توجه قرار مى‌گيرد؛ اما در كشور در حال توسعه‌اى نظير ايران انواع ديگرى غير از اشتراك نظير استفاده از كافى‌نت‌ها و نيز دسترسى‌هاى شراكتى در محاسبات لحاظ مى‌شوند. براساس آمارهاى موجود در حال حاضر حدود 6/2 درصد خانواده‌هاى ايرانى به شبكه‌ى اينترنت دسترسى دارند. تعداد مشتركان Dial up نيز حدود دو ميليون و ‌500 هزار مشترك مى‌باشد. طبق بررسى‌ها حدود ‌49 درصد كاربران شبكه اينترنت در كشور را زنان تشكيل مى‌دهند. در صورت بالا بودن نرخ مكالمات تلفنى استفاده از اينترنت براى عموم مردم مقرون به صرفه نخواهد بود و اين درحالى است كه كاربران اينترنت در قبال اتصال به شبكه بايد دو هزينه تلفن و هزينه دسترسى به شبكه را بپردازند. با اين حال تمهيداتى مثل كاهش نرخ خدمات تلفن و كارت‌هاى اينترنتى در بعضى ساعات شب مى‌تواند عامل موثرى در جذب كاربران به استفاده از شبكه باشد. البته گاهى به علت نبود يا كمبود كيفيت خدمات اينترنت در برخى شهرها، كاربران اقدام به خريد و استفاده از سرويس‌هاى شهرهاى بزرگى مثل تهران مى‌كنند كه اين خود موجب افزايش هزينه‌هاى تلفن مى‌شود. سرانه درآمد مردم نيز يك عامل تعيين كننده ديگر در استفاده از اينترنت محسوب مى‌شود. قدرت خريد سخت‌افزار و استطاعت مالى فرد براى پرداخت هزينه ارتباط مشخص كننده‌ امكان برقرارى ارتباط اينترنتى مى‌باشد.اين پژوهشگر با اشاره به تاثير مولفه‌هايى نظير رقابت شركت‌هاى خصوصى در عرصه‌ مخابرات و تعدد و رقابت شركت‌هاى خدمات رسان سرويس دهنده وب (ISP) در ارتقاى شاخص‌هاى توسعه يافتگى ICT در كشور مى‌افزايد: ايران براى دستيابى هر چه بهتر و سريعتر به شاخص‌ها و ابزارهاى توسعه ارتباطات و اطلاعات منطبق بر استانداردهاى جهانى، نياز مبرمى به نگرش كلان، اصولى و غيرنمايشى به پديده ICT دارد. با از بين بردن بسيارى از موانع موجود از طريق تعريف و تدوين موازين قانونى در راه انتقال خدمات به بخش خصوصى، ارائه‌ گسترده و حتى رايگان خدمات آموزش عمومى ICT، افزايش سرانه استفاده از رايانه و اينترنت، نهادينه و اجرايى كردن مفاهيم دولت الكترونيكى و تجارت الكترونيكى در كشور مى‌توان در راه توسعه‌ بيش از پيش ICT كه از لوازم توسعه پايدار در كشور مى‌باشد، گام برداشت.



ثبت نام سايت‌ها
در همين حال، وزارت فرهنگ و ارشاد اسلامي، در دي ماه 85، به همه دارندگان سايت‌ها دو ماه فرصت داد تا با مراجعه به سايت «ساماندهي پايگاه‌هاي اينترنتي ايراني» سايت و وبلاگ خود را ثبت کنند. ثبت‌نام سايت‌ها از روز يازدهم دي ماه آغاز شد و تمامي سايت‌هاي خبري، اطلاع‌رساني، علمي و آموزشي ايراني موظف شدند تا در اين پايگاه ثبت نام کنند. اين طرح، بر اساس آئين‌نامه‌اي صورت گرفت که 29 مرداد سال 85 به تصويب دولت محمود احمدي‌نژاد رسيد. بر اساس اين آئين‌نامه، وزارت فرهنگ و ارشاد اسلامي مسوول مديريت، ساماندهي و نظارت بر پايگاه‌هاي اطلاع‌رساني اينترنتي است و از «فعاليت‌هاي مجاز و سالم در کشور» حمايت خواهد کرد. در عين حال اين وزارتخانه موظف است تا علاوه بر «هدايت و حمايت از فعاليت‌هاي اينترنتي مجاز» با فعاليت‌هاي غير مجاز برخورد کرده و از طريق کميته تعيين مصاديق پايگاه‌هاي غيرمجاز اينترنتي نسبت به مسدود کردن سايت‌ها و وبلاگ‌ها اقدام کند. بر اساس اين آئين‌نامه، در صورتي که پايگاه‌هاي اطلاع‌رساني ثبت شده در وزارت ارشاد «فعاليت غيرمجاز» انجام دهند ابتدا با تذکر رسمي از مديران سايت‌ها خواسته مي شود نسبت به حذف داده‌هايي «ممنوع» اقدام کرده و با اصلاح موارد مورد نظر نسبت از آنچه نوشته‌اند عذرخواهي کنند. بعد از آن نيز گزارشي به کميته مصاديق پايگاه‌هاي غيرمجاز اينترنتي فرستاده مي شود تا نسبت به مسدود کردن پايگاه براي مدت محدود يا تعطيلي دائمي آن اقدام شود. اشاعه منكرات و ترويج مطالب در اين آئين نامه، انتشار مطالب الحادي و کفرآميز و مخالف موازين مغاير با عفت و اخلاقي عمومي، توهين به اقوام و مليت‌هاي مذهبي، توهين به اشخاص حقيقي و حقوقي، تبليغ پايگاه‌هاي اطلاع‌رساني غير مجاز و آموزش مقابله با *****ينگ به عنوان تخلفاتي نام برده شده است که با آن مي‌توان جلوي فعاليت سايت‌ها را گرفت و مديران آنها را به دادگاه معرفي کرد.



موفقيت يا ....
مانند تمام پديده‌هاي ديگر؛ اين اقدام نيز موافقان و مخالفاني يافت. برخي کارشناسان، اقدام تازه دولت براي ثبت‌نام سايت‌ها را محدويت‌هاي تازه‌ تعبير کردند که به ادعاي آنها از چند سال پيش آغاز شده و در دولت محمود احمدي‌نژاد شتاب بيشتري گرفته است.اين در حالي است كه دولت، هدف خود از ثبت سامانه‌هاي اينترنتي را حمايت از پايگاه‌هاي قانوني، دسترسي آزاد و سالم مردم به اطلاعات و رعايت حقوق اجتماعي و ارزش‌هاي فرهنگي عنوان كرد.برخي معتقد بودند كه طرح شناسنامه دار کردن سايت‌ها بايد اختياري باشد و برخي ديگر گفتند كه ثبت قانوني سايت‌ها، از رواج شايعات بي‌اساس جلوگيري مي‌کند.اما چندي پس از آغاز ثبت سايت‌هاي اينترنتي، «برخي» ناظران، در مورد موفقيت آن ابراز ترديد كردند. برخي منابع خبري تعداد سايت‌هاي ثبت شده در سايت ساماندهي را دو هزار سايت ذکر کردند و روزنامه کيهان نيز در فاصله 10 روز بعد نوشت كه 840 سايت حاضر شده‌اند در سايت معرفي شده از سوي معاونت مطبوعاتي وزارت ارشاد ثبت نام کنند. در هر صورت، فراموش نكنيم همزمان با ورود هر تكنولوژي و فناوري جديدي به فضاي عمومي يك جامعه، لزوما فرهنگ استفاده از آن تكنولوژي و فناوري كه عمدتا وارداتي نيز هست، به درون كشيده نمي‌شود. چه بهتر كه قبل از هر اقدام، با فرهنگسازي در مورد نحوه استفاده از اينترنت يا فناوري‌هاي مشابه، ضمن آنكه امكان دسترسي همگاني به آن را فراهم مي‌كنيم، كيفيت بهره‌برداري از امكانات شبكه‌اي همانند اينترنت را در كنار كميت، بالا ببريم و شاخصه‌هاي توسعه همه‌جانبه را همراه با هم به سمتي صحيح جلو ببريم.

کارگر سایت 09-02-2007 10:55 AM

مفاهیم و اصطلاحات دنیای جستجو و موتورهای جستجوگر
 

مفاهیم و اصطلاحات دنیای جستجو و موتورهای جستجوگر

Spider
نرم افزاري است كه كار جمع آوري اطلاعات از صفحات مختلف را بر عهده دارد.

Crawler
نرم افزاري كه مسير حركت اسپايدر را مشخص مي كند.

Directory
فهرست: نوعي از موتورهاي جستجوگر كه پايگاه داده آن توسط ويراستاران تكميل مي گردد.

Keyword
بــه واژه ها ي مهم (کليدی) هر صفحه گفته مي شود: اما غالبا" منظور كلماتي است كه دوست داريم با آنها رتبه هاي مناسبي كسب كنيم.

Keyword Density
چگالي كلمه، منظور تعداد دفعات تكرار واژه های كليدي در مقايسه با ساير كلمات متن است.

Keyword Staffing
تكرار يك كلمه به دفعات و پشت سر هم به منظور بالا بردن چگالی کلمه: اين کار تقلب محسوب می شود.

Tinny Text
نوشتن متن با اندازه های بسیار کوچک و ریز به گونه ای که کلمات بسیاری بدین ترتیب در یک خط قرار داده می شود و به سختی نیز در صفحه قابل رویت هستند. نوشتن مطالب به اين صورت، تقلب محسوب است.

Invisible Text
متن نامرئی: منظور استفاده از متن هاي همرنگ با پس زمينه صفحه است. متن هايی که از ديد کاربران مخفی می ماند. به عنوان مثال اگر پس زمينه يك صفحه سياه است، متن صفحه نيز با رنگ سياه نوشته می شود تا ديده نشود . اين نوع متن ها از مصاديق تقلب می باشند.

Spam
تقلب، به تمام تلاش هايي گفته مي شود كه به كمك آن سعي مي شود از راه هاي غير معمول، رتبه هاي بالايي كسب شود. يا در اختيار گذاردن اطلاعاتي كه موتورهاي جستجوگر آنرا دوست ندارند (اطلاعات ناخواسته) مانند تكرار يك كلمه به دفعات و پشت سر هم، استفاده از متن هاي هم رنگ زمينه و ...

ALT tag
محتواي اين شناسه، متني است كه يك عكس را توضيح مي دهد.

Deep Crawl
به معناي اين است كه موتور جستجوگر، مي تواند صفحات زيادي از يك سايت را در پايگاه داده اش قرار دهد. موتور جستجوگر هرچه پايگاه داده اش بزرگتر باشد، صفحات بيشتري از يك سايت را می تواند در پايگاه داده اش قرار دهد. همه موتورهاي جستجوگر داراي اين ويژگي نمي باشند.


Robots.txt
با اين فايل متني و ساده، ميزان دسترسي موتور جستجوگر به محتواي يك "سايت" را مي توان كنترل كرد.

META robots tag
به كمك اين شناسه ميزان دسترسي موتور جستجوگر به محتواي يك "صفحه" را مي توان كنترل كرد.

Link
پيوند: در واقع پلی بين دو صفحه است. به کمک آن می توان از يک صفحه به صفحه ديگر رفت.

Link Popularity
مقصود اين است که چه تعداد از سايت هاي ديگر به سايتي مشخص لينك کرده اند يا اينكه از چند سايت ديگر می توان به کمک پيوندها به سايتی مشخص رفت.

Link Reputation
اشاره به اين دارد كه ساير سايتها درباره سايتي كه بدان لينك داده اند، چه مي گويند. عموما در اين موارد عنوان، متن لينك و كلمات اطراف لينك در سايت مقصد، بررسي مي شوند.

Learn Frequency
بعضي از موتورهای جستجوگر مي توانند تشخيص دهند كه محتواي صفحات پس از چه مدتی تغيير مي كند (به روز می گردد) و بعد از آن مدت به آن صفحات مراجعه می کنند.

URL-Uniform Resource Locator
به آدرس منحصر به فرد هر منبع موجود در اينترنت گفته می شود. اين منبع می تواند يک صفحه وب، يک فايل متنی و... باشد

Stop Word
به کلماتی گفته می شود که در کل اینترنت از آنها بسيار استفاده شده است. کلماتی نظيرthe, a, an, web www, home page, و ...

Meta tags
به كمك اين شناسه ها، اطلاعاتي از صفحه در اختيار بينندگان (موتور جستجوگر، مرورگرها و ...) قرار داده مي شود.

META Keywords
به كمك آن، كلمات کليدی صفحه در اختيار موتورهاي جستجوگر قرار داده می شود.

META Description
به كمك آن، توضيحي مختصر از صفحه در اختيار موتورهاي جستجوگر قرار داده می شود.

Stemming
به معناي اين است كه موتور جستجوگر مي تواند صورت هاي مختلف يک كلمه را جستجو كند. به عنوان مثال با جستجوي swim موتور جستجوگر به دنبال swimmer ، swimming نيز مي گردد. همه موتورهاي جستجوگر داراي اين ويژگي نمي باشند.

Rank
رتبه يك صفحه در نتايج جستجو است زماني كه جستجويي مرتبط با محتواي آن صفحه انجام مي شود.

Spamdexing
مختصر شده spam indexing است، منظور طراحی و معرفي صفحاتي به موتورهاي جستجوگر است كه كيفيت نتايج جستجو را پايين مي آورند. موتورهای جستجوگر تمايل دارند که كاربران بارها و بارها به آنها مراجعه كنند و كيفيت بالاي نتايج مي تواند اين روند را تضمين كند. لذا آنها هركدام به نوعي سعي در تشخيص صفحاتي دارند كه كيفيت نتايج جستجو را پايين مي آورد. برخی از اين موارد عبارتند از: ساختن صفحاتي كه همگي داراي محتواي يكساني اند، تكرار يك كلمه بيش از حد و ...

Comment
توضيحاتي است كه طراحان سايت در لا به لاي كدهاي HTML مي گنجانند تا برای فهميدن وظيفه بخش هاي متفاوت كدهای HTML در مراجعات آتی نيازی به صرف وقت بسيار نداشته باشند.

دانه کولانه 09-21-2007 09:22 PM

اسپاك موتور جستجوگر شخصیت
 
اسپاك موتور جستجوگر شخصیت

اسپاك، آخرين جبهه جست و جو
كدام يك از شركت هاي نوپاي فناوري اطلاعات هست كه در آرزوي گوگل شدن نباشد؟ البته گفتن‌اش راحت‌تر از انجام‌اش است.
http://www.downtheavenue.com/images/...ock_logo_2.png
اگر گوگل توانست يك‌باره پديدار شود و كار و كاسبي ياهو را تخته كند، چرا يك شركت نوپاي ديگر نتواند همان بلا را بر سر گوگل بياورد؟ البته در شركت اسپاك (Spock) هنوز كسي از اين ادعاها نمي كند، هر چه باشد سرويس جست‌و‌جوي آنها - كه استفاده از نسخه آزمايشي آن دعوت نامه لازم دارد - يك ماه نيست كه آغاز به كار كرده است.
شركت اسپاك از زمان شروع حدماتش حدود 100 ميليون نفر را در بانك اطلاعات خود ذخيره كرده است و مي خواهد به سرعت افراد بيشتري را هم تحت پوشش قرار بدهد. در حالي كه بقيه سايت هاي جست‌و‌جوي افراد مثل Wink و Zoominfo هر يك شهرت كوتاه مدت خود را داشتند و بعد ناپديد شدند، اسپاك رويه متفاوتي را در پيش گرفته كه نشان مي دهد براي ماندن آمده است. اسپاك به كاربران قابل اعتماد خود امكان نوشتن تگ و جست‌و‌جوي متاتگ‌ها (تگ‌هايي كه توصيف كننده تگ‌هاي عادي هستند) را مي دهد.
مدير عامل اين شركت آقاي جايديپ سينگ مي باشد و صفحه كنوني سايت نيز نسخه نهايي‌اي است كه كاربران خواهند ديد.

جمعه سی ام شهریور 1386
جمعه سی ام شهریور 1386 ساعت 17:4

دانه کولانه 09-25-2007 08:33 PM

سایت خود را به بیش از 40 موتور جستجوگر معرفی کنید
 
سایت خود را به بیش از 40 موتور جستجوگر معرفی کنید


قبلا یه سایتی میعرفی شده بود در این زمینه اما بعدا خراب شد

حالا گشتم یه سایت خوب که کار باهاش راحت باشه رو پیدا کردم

Free Submission to 40+ Search Engines
کلیک کنید


Google .
Yahoo Web Pages .
AOL Search .
iWon.com .
Exactseek.
Jayde
Search.com
metacrawler
Dogpile
mamma
C4
Canada.com
ixquick
Infogrid
query Server

WebInfoSearch
800go
Debriefing
Highway 61
37.com
OneSeek
metaSpider
Vivisimo
PlanetSearch
SurfWax
qbSearch
ProFusion
Proteus
Go 2 Net
megaGo.com
WebFile
myGO
megacrawler
و خیلی های دیگه

دانه کولانه 10-18-2007 06:46 AM

این هم یکی دیگه

http://www.submit.gsign.biz

دانه کولانه 12-12-2007 05:23 PM

موتورهای جستجوگر و سایت شما
 
موتورهای جستجو گر و سایت شما
بهینه سازی رتبه سایت شما در موتور های جستجو گر
تعاریف تگها و متا تگها
seo . و ..... page rank
سعی کردم بهتریناشو جمع آوری کنم براتون که همه ی مقالات خوب رو یه جا داشته باشید
اونم چیزی که زبان ساده ای داشته باشه که برای بعضی ها قابل فهم باشه
به هر حال این بخش از مقوله طراحی و نگهداری سایت یکی از بخشهای مهم و اندکی فنیه اینه که لازمه با بعضی تعاریف و بعضی از کارهای ضروری در این زمینه آشنا بشید
و پیجرنک خودتونو با دست خودتون برای مدتهای طولانی عقب نندازید و بگذارید هرچه سریعتر
سایتی مثل گوگل پیج رنک خوبی بهتون بده
have a good pagerank from google and other search engins

==============================================

چند استراتژي مهم براي افزايش رتبه در موتورهاي جستجو
هنوز موتورهاي جستجو بهترين ابزار براي جذب ترافيک به سايت شما هستند. دليل آن به خاطر هدفمند بودن جستجو در آنها است. شخصي که دنبال يک موضوع خاص است از جستجو در موتورها به سايت شما مي رسد. بسيار مهم است که سايت شما براي موتورهاي جستجو جذاب باشد چون باعث رتبه بهتر و ترافيک بيشتر و در نتيجه فروش بيشتر خواهد شد که هدف اصلي هر سايت است.

براي افزايش رتبه در موتورهاي جستجو، 17 استراتژي زير بسيار موثر خواهند بود :

1. تراکم کلمات کليدي - نسبت کلمات کليدي به ساير کلمات در يک صفحه را چگالي يا تراکم کلمات کليدي مي نامند. مثلا اگر شما 100 کلمه در يک صفحه داريد و سه عدد از آنها جزو کلمات کليدي سايت شما هستند، چگالي کلمات کليدي آن صفحه 3% است. سعي کنيد که چگالي حدود 3 تا 20 درصد براي کلمات کليدي مهم سايت خود را تنظيم کنيد. سايتهاي زير براي آناليز سايت شما در مورد تراکم کلمات مختلف، کمک مي کنند :

KeywordDensity.com
KeywordCount.com

ناگفته نمونه اینطوری هم نیست که پر کردن کلمات کلیدی در بخش مربوطه همیشه موفق باشیم متاسفانه خیلی سایت های بزرگ رو میبینم که مثلا 2400 کاراکتر در کلمات کلیدیشون هست !!!
کلمات کلیدی برای گوگل کمی کمتر مهمه اما مثلا یاهو ظاهرا اذعان کرده برام مهمه ! اینه که یه موضوعیه که باید رعایتش کنی هم اینطرفیش هم اونطرفیش
2. کلمات کليدي در نام دامنه سايت شما - سعي کنيد يکي از مهم ترين کلمات کليدي سايت خود را در نام دامنه آن بگنجانيد. مثلا www.theHandicrafts.com که کلمه Handicraft در نام دامنه وجود دارد. اين مورد همچنين به مردم کمک مي کند که نام سايت شما را به خاطر بسپارند.

3. عنوان صفحه (Page Title) - يک عنوان توصيفي شامل 5 تا 8 کلمه که کلمات کليدي اصلي سايت شما را شامل باشند، انتخاب کنيد. عنوان، اولين چيزي است که مردم با آن در موتورهاي جستجو مواجه مي شوند. عنوان را با حرف بزرگ شروع کنيد و بقيه را با حروف کوچک بنويسيد. توجه کنيد که وجود کلمات فارسي با استاندارد يونيکد توسط موتور جستجوي گوگل شناسائي مي شود. مهمترين کلمات کليدي سايت خود را در ابتداي عنوان سايت خود قرار دهيد.
این یکی به نظر من بینهایت مهمه

4. شناسه توصيف (Description tag) - برخي از موتورهاي جستجو اين شناسه را به دنبال عنوان سايت شما، نمايش مي دهند. 200 تا 250 کلمه در اين بخش وارد کنيد که 20 عدد از کلمات کليدي سايت شما را نيز شامل باشد. عنوان سايت خود را مجددا در اين بخش وارد نکنيد. در اين بخش نيز مي توانيد از کلمات فارسي استفاده کنيد.
باز این مورد در گوگل کمی کمتر از موتورهای جستجوگر دیگه مهمه اما نمیشه ازش گذشت

5. شناسه کلمه کليدي (Keywords Tag) - اين بخش بسيار مهمي است و شما بايد 50 تا 100 کلمه کليدي سايت خود را در اين بخش وارد کنيد. موتورهاي جستجو براي اين بخش ارزش زيادي قائل هستند و در رتبه بندي سايت شما تاثير دارد. کلمات کليدي را با کاما از يکديگر جدا کنيد. با اين روش در حداقل جا، امکان ترکيبات متنوعي از کلمات کليدي سايت شما گنجانده خواهد شد.

6. شناسه ارزشگذار (Header tag) - جذاب ترين بخش براي موتورهاي جستجو کلماتي است که بين شناسه هاي H1 قرار دارند. اين شناسه ها بايد در بالاترين بخش صفحات سايت شما باشد. کلماتي که بين اين شناسه قرار مي گيرند، مثل

<H1>Send flower to your relatives in Iran</H1>
با اندازه بزرگ نمايش داده مي شوند و ممکن است زيبائي سايت شما را مختل کنند. مي توانيد با استفاده از شناسه هاي فرم دهنده (Styles) اندازه شناسه هاي ارزشگذار را متناسب کنيد. مثلا :

h1 { font-family: Arial; font-size: 14pt }
7. شناسه توضيح (Comment tag) - اين ها اطلاعاتي هستند که توسط طراحان سايت براي قرار دادن توضيحات جنبي در بخشهاي مختلف صفحات استفاده مي شوند. اين اطلاعات توسط مرورگرها نمايش داده نمي شوند و در صفحات شما تاثير ظاهري ندارند. از کلمات کليدي مهم سايت خود در اين بخش استفاده کنيد. مثلا :

<!-- Below code is responsible to ask flower name and prepare a gift object -->
8. شناسه جايگزين تصوير (Alt Tag) - وقتي که نمايش تصاوير در مرورگر شما خاموش است و يا وقتي نشانگر ماوس را روي تصاوير مي بريد، اطلاعات شناسه جايگزين تصاوير، نمايش داده مي شوند. اين کلمات هم براي موتورهاي جستجو بسيار مهم هستند. حتما از کلمات کليدي سايت خود در اين بخش استفاده کنيد. حتما کلمات بايد مناسب با تصوير مربوطه باشد در غير اين صورت به عنوان حقه بازي در ايجاد تراکم کلمات، توسط موتورهاي جستجو تحريم خواهيد شد. نمونه :

<img src=/images/logo.gif ALT="Send flower to your relatives in Iran">
وقتی موستونو میبرید روی یه عکسی بعضی وقتا یه نوشته ی مرتبطی ظاهر میشه این اونه
که میگه مهمه و البته که مهمه و در سرچ تصویری از نکات مهمی که اسپایدرهای این سایتها بهش توجه میکنند همینه البته برای سایت هایی مثل ما رعایت کردن این موضوع کمی دشواره
اما اگر صفحاتتون خودتون طراحیش میکنید و کدنویسیش توسط خودتونه بهتره که رعایت کنید
9. نام فايلهاي تصاوير در صفحات شما - حتما نام تصاوير را از ميان کلمات کليدي سايت خود انتخاب کنيد.

10. نامهاي ارتباط صفحات - کلمات کليدي مهم سايت خود را در نام ارتباط صفحات قرار دهيد. مثلا به جاي نام صفحه services.htm از نام مناسب با نوع تجارت خود مثل webhostingservices.htm استفاده کنيد.

تاثیر این بخش مثل بند 2 هست به نظر من و مهم هم هست
11. نقشه سايت (Site Map) - براي سايت خود نقشه تهيه کنيد و ارتباط با تمام بخشهاي سايت را به همراه توضيح آن بخش، در نقشه سايت قرار دهيد. نقشه سايت را در صفحه اول سايت خود قرار دهيد چون برخي موتورهاي جستجو فقط صفحه اول سايت شما را بازديد مي کنند.

12. محتواي کيفي - محتواي صفحات را با 250 تا 300 کلمه که شامل مهمترين کلمات کليدي شما هستند تهيه کنيد. اين اطلاعات بايد بيننده سايت شما را هدف گيري کنند. کلمات کليدي را در ابتداي پاراگرافها استفاده کنيد و از تکرار بيش از حد آنها که باعث عجيب شدن مطالب شما بشوند پرهيز کنيد. از کساني که در تهيه مطلب و مقاله وارد هستند بخواهيد که مطالب شما را قبل از کپي در سايت خود، مرور کنند.

13. بازسازي ارتباطات شکسته (Broken Links) - اکثر موتورهاي جستجو اگر در سايت شما ارتباطات شکسته وجود داشته باشد، سايت شما را ليست نمي کنند. بازديد کنندگان هم از ديدن صفحات 404 error page دلخور مي شوند و سايت ديگري را کليک خواهند کرد. حتما سايت خود را قبل از کپي در اينترنت توسط سايت www.anybrowser.com کنترل کنيد.

من الان این لینک رو چک کردم خیلی خوب بود یه قسمتش ! این کار رو میکنه که شما فرض کنید در صفحه اول یه سایتی مثل سایت ما 450 لینک مختلف وجود داشته باشه
در اون قسمت دونه دونه ی اون لینکها رو چک میکنه که آیا وجود دارند هنوز یا خیر
14. صفحه ارتباط با سايت (Contact page) - برخي موتورهاي جستجو، مخصوصا Yahoo ، اگر آدرس پستي شما در سايت نباشد، سايت شما را ليست نمي کنند.
نه دیگه دوره ی این افراط گریها هم نمونده اینطوری نیست اما تاثیر خودشو داره قطعا
و حتما رعایت کنید (کاری که ما نکردیم ;))
حتما آدرس پستي را در سايت قرار دهيد، فقط قرار دادن آدرس صندوق پستي کافي نيست.

15. ارتباط متقابل - موتورهاي جستجو مخصوصا گوگل به تعدد ارتباط ها به سايت شما حساس هستند و آنرا در رتبه سايت شما اثر مي دهند. يک صفحه لينکستان بسازيد و به سايتهاي مشابه، نه رقيب، سايت خود ارتباط دهيد، مخصوصا سايتهائي که در موتورهاي جستجو رتبه خوبي دارند. از سايتهاي ديگر بخواهيد که به سايت شما ارتباط دهند. براي اينکه بدانيد از کدام سايتها به سايت شما ارتباط داده شده است، در موتور گوگل عبارت زير را جستجو کنيد :
بله این یکی از مهمترین مشخصه های یه سایته که چندتا سایت دیگه که پیجرنک بالاتری از شما دارن به شما لینک کرده اند

منتهی همین طوری هم نیست که از دیگران بخوای لینکت کنند حتی اگه همکاری دو طرفه هم باشه و شما هم اونو لینک کنید بازهم شاید طرفتون قبول نکنه چون page ranke بالاتری از شما داره
16. ارتباط هاي ضربدري - اگر چندين سايت داريد، به يکديگر ارتباط دهيد و براي هر ارتباط، توضيحي تهيه و در سايتهاي خود قرار دهيد. از کلمات کليدي سايت خود در اين توضيحات استفاده کنيد.

17. اندازه فايلها را کوچک نگاه داريد - اگر از کد هاي جاوا اسکريپت يا DHTML استفاده مي کنيد، معمولا قبل از محتواي سايت شما، در بالاي صفحه قرار مي گيرند، جائي که براي موتورهاي جستجو مهم است و آنها به جاي رسيدن به اطلاعات سايت شما، با کدهاي برنامه مواجه مي شوند و رتبه شما کاهش مي يابد. براي کوچک نگاه داشتن اندازه فايلها، کدهاي برنامه را در صفحات جداگانه قرار دهيد و در صفحه اصلي include کنيد.

نتيجه :
يک طراحي ساده و تميز که به راحتي قابل بازديد باشد انجام دهيد. روي محتواي مناسب و جالب براي بازديد کننده که خوب نوشته شده است و کلمات کليدي سايت شما را شامل باشد، تمرکز کنيد. يک استراتژي مناسب با توجه به نکات بالا تدوين کنيد و شاهد افزايش چشم
گير ترافيک سايت خود باشيد.

استراتژی مهم برای افزايش رتبه در موتورهای جستجو

دانه کولانه 12-12-2007 11:19 PM

how to improve page rank of your site ?
 
how 2 improve page rank of your site ?

تا حالا در پست بالا بیشتر نکات کلیتر مطرح شد که البته باید رعایت بشه
حالا در مورد تگها و متا تگها باید کمی بدونید که اونا هم به اندازه کافی مهمه و
بعضی هاش یه مواقعی از نان شب واجبتر حتی از لحاظ امنیت !

----------------------------------------------------------------------------------------

تا کنون فکر کرده اید که چرا موتورهای جستجو به سایت شما سر نمی زنند یا اینکه هیچ فکر کرده اید که باید چندین فولدر مهم در فروشگاه رو از دست آنها پنهان کرد تا به اطلاعات اضافی دسترسی نداشته باشند؟
روش کار با ایجاد یک فایل به نام robots.txt هست که این کار را برایتان انجام می دهد. این فایل را باید در ریشه سایت قرار دهید تا موتورهای جستجو با کنترل آن از دستور دلخواه شما پیروی کنند.


دو پروتكل عمده براي منع كردن موتورهاي جستجوگر از بايگاني منابع وب وجود دارد:

• پروتكل robots
• پروتكل robots meta tag

پروتكل robots

می توان با يک فايل متنی و بسيار ساده، ميزان دسترسی موتورهای جستجوگر به محتوای سايت ها را کنترل کرد. اين فايل robots.txt نام دارد و پروتکل حاکم بر آن پروتکل robots نام دارد.
موتور جستجوگر قبل از آنکه وارد سايتی شود، ابتدا فايل ياد شده را درخواست می کند و تمام محدوديت های پيش روی خود در آن سايت را می خواند. نبود اين فايل در يک سايت به معنای نبودن هيچ گونه محدوديتی برای تمام اسپايدرها است (حالت پيش فرض).
موتور جستجوگر بعد از آنکه تمام فايل ها و مسيرهای ممنوع را دانست. شروع به خواندن مطالب سايت می کند و البته به محدوديت های موجود نيز احترام می گذارد (اگر يک اسپايدر مودب باشد!).

نوشتن robots.txt
پروتکل روبوتز تنها دو دستور دارد که به کمک آنها محدوديت های زير مشخص می شوند:

• کدام اسپايدرها محدود شوند.
• کدام مسيرها محدود شوند.

user-agent:
با اين دستور، روبوت ها مشخص می شوند. روبوت (اسپايدر) هر موتور جستجوگر نام مشخصی دارد و برای محدود کردن موتورهای جستجوگر کافی است که نام روبوت های مورد نظر را به همراه اين دستور به کار گيريم. اي دستور به صورت زير به کار می رود:

به عنوان مثال وقتی که روبوت مورد نظر مربوط به گوگل است خواهيم داشت:
user-agent:googlebot

و همين طور اگر روبوت NorthernLight مورد نظر باشد،آنگاه:

user-agent:gulliver

با اين دستور مسيرهای ممنوع مشخص می شوند که به صورتهای زير به کار می رود:

/disallow:/path

/disallow:/admin
/disallow:/pub

برای محدود کردن هر روبوت ابتدا آنرا مشخص کرده و سپس تمام مسيرهای محدود شده برای آنرا ذکر می کنيم:

user-agent: googlebot

/disallow:/admin
/disallow:/pub

اگه فروشگاه شما در داخل یک فولدر قرار دارد باید به این صورت استفاده کنید :

/disallow:/shop/admin
/disallow:/shop/pub

و با دستور زير همه روبوت ها می توانند محتوای تمام مسيرها را بخوانند:

*:user-agent
:disallow


کاربرد * به همراه user-agent به معنای تمام روبوت ها است.
در مثال زير به تمام روبوت ها گفته می شود که خوش آمديد، اينجا خبری نيست، لطفا دور شويد (با زبان خوش!).

*:user-agent
:disallow

کاربرد / به همراه disallow به معنای تمام مسيرها است. همچنين برای نوشتن توضيحات در فايل robots.txt از # به صورت زير استفاده می شود:

all robots are allowed #
*:user-agent
:disallow

شما اگر گاليور بوديد و قصد سفر به سايت آدم كوچولوها را داشتيد با ديدن دستورات زير چه مي كرديد؟

*:user-agent
/:disallow

User-agent:Gulliver
Disallow:


فايل robots.txt را کجا بايد قرار داد؟
از مثال زیر کمک گرفته و فایل را در محل مناسب آن قرار دهید.محل مناسب و صحیح همان ریشه سایت می باشد.

robots.txt

و نكات ديگر:
• حتی اگر سايت شما هيچ گونه محدوديتی ندارد توصيه می شود که اين فايل را بر روی سرور خود قرار دهيد. در اين صورت کافيست که به صورت زير عمل کنيد:

*:user-agent
:disallow

بودن اين فايل به صورت ذکر شده و نبودن آن در هر دو صورت برای موتورهای جستجوگر يک معنا دارد:

آزادی در دسترسی به محتوای سايت

اما وجود robots.txt می تواند نشان از حرفه ای بودن سايت باشد و شايد در رتبه بندی سايت هم مورد لحاظ قرار گيرد.

آزادی در پرتو يک قانون بدون محدوديت بهتر است از آزادی ناشی از بی قانونی!

• همواره يک مسير را ممنوع کنيد و نه يک فايل را.
گيريم که شما فايل rtg.html را برای گوگل به صورت زير محدود کرده باشيد:



user-agent:googlebot
diallow:/admin/rtg.html

*:user-agent
:disallow

همانطور كه مي دانيد تنها موتورهاي جستجوگر فايل robots.txt را نمي خوانند و در واقع همه کاربران با خواندن اين فايل می توانند بفهمند که شما چه فايلی را محدود کرده ايد و به راحتی می توانند به آن مراجعه کنند.

• تمام مسيرهای درون اين فايل را با حروف کوچک انگليسی بنويسيد. وب سرورهاي نصب شده بر روي سيستم هاي عامل يونيكس به بزرگي و كوچكي حروف در URL حساس هستند.
• هر سايت تنها می تواند يک فايل robots.txt داشته باشد.
• بعد از آنکه فايل robots.txt را بر روی سرور سايت خود قرار داديد با بررسی Server Logs سايت خود می توانيد بفهميد که آيا موتورهای جستجوگر به محدوديت هايي که تعريف کرده ايد وفادار بوده اند يا خير.
اگر يک موتور جستجوگر به محتوای آن توجه نکرده باشد، می توانيد با آنها مکاتبه کرده و علت را جويا شويد و از آنها بخواهيد که فايل های مسير مورد نظر را از بايگانی خود حذف کنند.
• در ابتدا و انتهای تمام مسيرهای قرار گرفته در Disallow از / استقاده کنيد.

پروتکل robots meta tag

با استفاده از robots.txt توانستيم بعضی از مسيرهای سايت خود را برای همه و يا تنی چند از موتورهای جستجوگر محدود کنيم. می توان با استفاده از يکی از شناسه های HTML هم محدوديت هايي را برای يک صفحه تعريف کرد.
اين شناسه ميزان دسترسی به يک صفحه را معين می کند و به يکی از چهار صورت زير به کار می رود:

<meta name=\"robots\" content=\"index,follow\">
<meta name=\"robots\" content=\"noindex,follow\">
<meta name=\"robots\" content=\"index,nofollow\">
<meta name=\"robots\" content=\"noindex,nofollow\">


Index
به معنای اين است که موتور جستجوگر می تواند محتوای صفحه را بايگانی کند. آوردن no بر سر آن به معنای اين است که موتور جستجوگر نمی تواند محتوای صفحه را بايگانی کند.

Follow
به اين معناست که موتور جستجوگر می تواند لينک های موجود در صفحه را دنبال کند. آوردن no بر سر آن به اين معنا است که موتور جستجوگر نبايد لينک های صفحه را دنبال کند.

با استفاده از اين شناسه محدوديت ها به تمام موتورهای جستجوگر اعمال می شود و نمی توان محدوديت های موردی اعمال کرد: همه يا هيچ کدام!
اگر در صفحه ای از اين شناسه استفاده نشده باشد، به معنای index, follow است. يعنی محتوای صفحه خوانده شود و لينک های آن دنبال گردد (حالت پيش فرض).
می دانيد هر يک از چهار ترکيب ياد شده برای چه صفحاتی مناسب می باشند؟

برخی از موتورهای جستجوگر نيز META robots مخصوص به خود دارند ( نظير گوگل) که می توانيد از آنها نيز استفاده کنيد. برای اطلاع از چگونگی استفاده از آنها می توانيد از Help همان موتور جستجوگر کمک بگيريد.

دانه کولانه 12-12-2007 11:27 PM

meta tag ها چه هستند؟
متا تگها ، تگهايي هستند كه در بين دو تگ <head></head> در سند html قرار مي گيرند.دو نوع مختلف از متاتگها وجود دارد:
NAME : تگهاي NAME با HTTP header ها برابر نيستند.
HTTP-EQUIV : اين تگها با HTTP header ها برابرند.

چرا از meta tag ها استفاده مي كنيم؟
مي توان گفت در سند html نيازي نيست از تگهاي http-equiv استفاده كنيم،در حقيقت اجباري به استفاده از هيچ كدام از متاتگ ها وجود ندارد البته بدون name tag صفحه ما در بسياري از موتورهاي جستجو index نمي شود.در اغلب موتورهاي جستجو از ربات خزنده اي استفاده مي شود كه در صفحات هر وب سايت حركت مي كند و به دنبال اين name tag ها مي گردد و از اين طريق كلمات كليدي(keyword) و توضيحاتي(description) را در مورد هر صفحه بدست مي آورد.سپس اين اطلاعات در بانگ اطلاعاتي موتور جستجو ثبت مي شود.براي مثال يك نمونه از meta name ها عبارت است از:


کد:

<meta name="keywords" content="key,word,about,my,site">
<meta name="description" content="my page is about bla">


اين كمترين متاتگي است كه شما بايد در صفحه قرار دهيد.

NAME Tag عبارتند از:
Description:
به اين ترتيب توضيح كوتاهي در مورد محتويات صفحه در آن قرار مي گيرد.اين مورد در صفحاتي كه از Frame ها استفاده مي كنند از اهميت بالايي برخوردار است.

کد:

<meta name="description" content="This site is full of code for programmers.">


Keywords:
كلمات كليدي در مورد محتويات صفحه تعيين مي شود.كلماتي مانند the و همچنين ساير كلمات ناچيز توسط جستجوگرها index نمي شوند.

کد:

<meta name="keywords" content="c++, code, programming">
Author:
نام نويسنده كدهاي صفحه مشخص مي شود:

کد:

<meta name="author" content="chris maunder">
Generator:
توسط اين مورد هم معمولا نام و نسخه ابزاري كه با آن صفحه ساخته شده تعيين مي شود.در اغلب برنامه هاي اين تگ اتوماتيك به سند اضافه مي شود.اين مورد شايد توسط فروشنده هاي نرم افزار استفاده مي شود تا ميزان نفوذشان به بازار را تعيين كنند.
Copyright:
از اين طريق هم كسي را كه حق چاپ صفحه متعلق به اوست تعيين مي كنيم.


کد:

<meta name="copyright" content="chris maunder">

Robots:
با اين مورد هم مي توان بر چگونگي ايندكس كردن صفحه توسط جستجوگرها نظارت كرد:
NOINDEX: به جستجوگر مي گويد كه هيچ چيز را در اين صفحه ايندكس نكند.
NOFOLLOW: به جستجوگر مي گويد كه لينك ها صفحه را تعقيب نكند ولي آنها را ايندكس كند.
NOIMAGEINDEX: به جستجوگر مي گويد تصاوير اين صفحه را ايندكس نكند.
NOIMAGECLICK: به جستجوگر مي گويد به جاي لينك مستقيم به تصوير به صفحهء حاوي تصوير لينك كند.
NOARCHIVE: به جستجوگر مي گويد كه صفحه را كش نكند.اين مورد تنها در مورد جستجوگر گوگل صدق مي كند.
براي مثال:


کد:

<meta name="robots" content="NOINDEX">
HTTP-EQUIV tag ها عبارتند از:
Expires:
وقتي استفاده مي شود كه زمان صفحه سپري شود.اگر يك جستجوگر اين مورد را شناسايي كند صفحه را از ديتابيس خود پاك مي كند يا مجدداً صفحه را در تاريخ انقضاء ايندكس مي كند.

کد:

<META HTTP-EQUIV="expires" CONTENT="Thu, 27 Jun 2002 10:56:57 GMT">
Cache-Control:
به مرورگر مي گويد كه در مورد كش كردن صفحه چطور رفتار كند:
PUBLIC: در كش هاي به اشتراك گذاشته شده كش شود.
PRIVATE: تنها در كش هاي محرمانه كش شود.
NO-CACHE: اصلا صفحه را كش نمي شود.
NO-STORE: شايد كش شود ولي بايگاني نمي شود.
براي مثال:

کد:

<META HTTP-EQUIV="cache-control" CONTENT="no-cache">

Content-Type:
باعث مي شود كه مرورگر قبل از لود صفحه character set تعيين شده را لود كند.


کد:

<meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
Content-Style-Type:
تعيين مي كند كه style ها در صفحه چطور تعريف شده اند.

کد:

<META HTTP-EQUIV="Content-Style-Type" CONTENT="text/css">


Content-Language:
زبان صفحه تعيين مي شود.براي مثال:

کد:

<META HTTP-EQUIV="Content-Language" CONTENT="EN-GB">

Refresh:
اين مورد موجب Refresh صفحه و لود صفحه تعيين شده پس از زمان معيني مي شود.زمان بر حسب ثانيه تعيين مي شود.


[CODE]<META HTTP-EQUIV="Refresh" CONTENT="10;

دانه کولانه 12-12-2007 11:28 PM

بهينه سازي تگ هاي متا (Meta Tags )
زماني بود كه محتویات تگ های متا برای موتورهای جستجو خيلي مهم بودند. با بازگشت به عقب می توان به این موضوع دست یافت که الگوريتم هاي موتور جستجو خيلي كند عمل ميكردند و نميتوانستند متوجه شوند كه یک صفحه از یک وب سایت چه مفهومي را با توجه به محتوا مي رساند. همین موضوع باعث شکل گرفتن ايده اي هوشمندانه در اين زمينه شد و چنین بود که تگ هاي متا بوجود آمدند. وظیفه اصلی آنها این بود كه اطلاعاتي هم چون موضوع اصلی یک صفحه و ... را در مورد محتواي يك صفحه به موتورهاي جستجو اعلام كنند. اين ايده بزرگ نه تنها مانعي در برابر طراحان سايتهاي اينترنتي كه تگهاي متايشان را پر از كلمات كليدي کنند , ايجاد نمي کرد , حتي آنها را تشويق به چنين كارهايي مي نمود.
همين مسائل باعث شد تا موتورهاي جستجو براي جلوگيري از تخلف طراحان سايت در استفاده از کلمات کليدي زياد در تگهاي متا , آنها را ناديده بگيرند و چنين شد که امروزه اكثر تگ هاي متا بي ارزش هستند و موتورهاي جستجو هیچ ارزشی برای آنها قائل نیستند. به طور مثال گوگل از هيچ تگ متايي استفاده نمی کند ( به جز Meta description ) ، به همین دلیل به شما توصیه می شود که اگر به دنبال يك رتبه بالا در گوگل , بوسيله كلمات كاملاً بهينه سازي شده در تگ هاي متا داريد ، خودتان را خسته نكنيد.

ازكدام تگ هاي متا بايد استفاده كنيد؟
از ديد گوگل اضافه كردن تگ متاي توصيفي (meta description ) منجر به افزايش رتبه صفحات در نتايج موتور جستجو نميشود ، اما اين توصيف ممكن است براي تشریح صفحات در ليست صفحات نتايج جستجو در گوگل مورد استفاده قرار بگيرد. درصورتي كه يك تگ متاي توصيفي جالب بنويسيد و گوگل از آن استفاده كند ( كه ضمانتي نشده است ) ، ممكن است در مقايسه باsnippet ( برای توضیح در مورد Snippet به بخش واژه نامه مراجعه کنید ) که خود گوگل که از متن صفحاتتان بدست ميآورد , از ميزان كليك بالايي برخوردار شويد. تمام ديگر تگ هاي متا ( ازجمله تگ متاي کلمه کليدي ) يا اصلاً در نظر گرفته نميشوند و يا تاثيري در افزايش رتبه صفحات در نتايج موتور جستجو نخواهند داشت. اما ياهو ميگويد در زماني كه صفحه اي را رتبه بندي ميكند از تگ متاي كلمه كليدي استفاده ميكند , از اينرو اضافه كردن اين تگ براي موتور جستجوي ياهو و يا هر موتورجستجوي ديگري كه هنوز از اين متاها استفاده ميکنند , ميتواند مفيد واقع شود. همچنين دايركتوريها و وب سايتهاي ديگري وجود دارد كه به طور خودكار جهت اضافه کردن سايت شما به ليست از اين اطلاعات استفاده مي کنند.

تگ هاي متاي نمونه
در زير شما مجموعه اي از نمونه تگ هاي متا را پيدا خواهيد كرد که براي صفحه اي که ميخواهيد در تمام موتورهاي جستجو فهرست بندي كنيد , نياز است.
< !DOCTYPE HTML PUBLIC “-//W3C//DTD HTML 4.01 Transitional //EN” “http://www.w3.org/TR/html4/loose.dtd’ >
< HTML >< HEAD >
< TITLE > آموزش بهينه سازي تگ هاي متا در موتورهاي جستجو < / TITLE >
< meta name=”description” content=”create the perfect meta tags for high search engine placement.” >
< meta name=”keywords” content=”keyword1, keyword2, …” >
< meta http-equiv=”content-type” content=”text/html;charset=ISO-8859-1” >
< link rel=”stylesheet” type=”text/css” href=”../seo-gold” media=”all” >
< / HEAD >
DOCTYPE‌ : در واقع يک تگ متا نيست و ضرورتي ندارد كه اين گزينه را به صفحه اي که مي خواهيد در رتبه بندي موتور جستجو موفق باشد , اضافه كنيد ، اما اگر شما بخواهيد كه صفحه اي را با يک validator html ارزيابي كنيد ( مثل http://validator.w3.org ) نياز خواهيد داشت تا اين تگ را در صفحه درست اضافه كنيد.

عنوان (the Title ): اين گزينه نيز يك تگ متا نيست ، اما بعضي اوقات افرادي كه كاملاً کاربرد تگ هاي متا را درك نميكنند , از Title به عنوان يک تگ متا ياد مي كنند. عنوان براي بهينه سازي صفحات خيلي خيلي مهم است , زيرا عنوان را به يک صفحه كامل بهينه سازي شده اختصاص مي دهيم. عنوان بايد شامل مهمترين اصطلاحات آن صفحه و احتمالاً يك يا دو كلمه كليدي مرتبط با آن صفحه باشد. مثلا عنواني که در مثال بالا آورده شده است به صفحات بهينه سازي شده اي در زمينه هاي بهينه سازي تگ هاي متا ، آموزش تگ هاي متا ، آموزش بهينه سازي موتورجستجو ، تگ هاي متاي بهينه سازي موتور جستجو و غيره كمك ميكند. با اضافه كردن تعداد زيادي از كلمات كليدي عنوان صفحه را نا مفهوم نکنيد و مهمتر از آن هيچ گاه بازديدكنندگان بالقوه را فراموش نكنيد. ( آنها مجبورند آن را بخوانند )

تگ متاي توصيفي (the Description meta tag ) : همانطور كه در ابتدا بيان شد , گوگل محتويات تگ متاي توصيفي را پوشش نمي دهد و تاثيري بر روي رتبه بندي صفحه در نتايج موتور جستجو ندارد ، اما ممكن است به عنوان توصيفي در نتايج جستجو مورد استفاده قرار بگيرد. از اينرو بايد يک توصيف از صفحه باشد , نه اينکه آنرا با کلمات کليدي پر کنيد.

تگ متاي كلمات كليدي (the Keywords meta tag ) : اين تگ متا هيچ ارزشي براي گوگل ندارند و احتمالاً براي ديگر موتورهاي جستجوي اصلي نيز ارزش كمي دارد.

مجموعه كاراكتر و فايلهاي خارجي لينكها (the Character set and links external files ) : تگ هاي متا نيستند و بر روي رتبه بندي در موتور جستجو هيچ تاثيري ندارند. مجموعه كاراكتر توسط مرورگرها مورد استفاده قرار ميگيرد , از اينرو مجموعه درستي از كاراكترها براي نمايش دادن صفحه تان مورد استفاده قرار ميگيرد. فايلهاي خارجي مانند Style ها ( فايلهاي Css ) و فايل هاي جاوا اسكريپت خارجي (JS files ) در اينجا به عنوان فايلهاي منبع در نظر گرفته شده اند و بر روي بهينه سازي موتورجستجو تاثيري ندارند ، اما اگر شما بتوانيد بعضي ازجاوا اسكريپت ها را از صفحه تان خارج كنيد , در واقع پهناي باند را ذخيره ميكنید و به اين معني است كه صفحاتتان سريعتر بارگذاري ميشوند.

تگ متاي روبوت : 12 نوع تگ متاي ديگر وجود دارد ،اما به ندرت از آنها براي افزايش دادن رتبه بندي موتورجستجو مورد استفاده قرار ميگيرد. مهمترين تگي كه شما ممكن است بعضي اوقات نيازداشته باشيد تگ متاي Robots است كه مثالي از ان را کشاهده مي کنيد:

< meta name=”robots” content= noindex,nofollow" >
اين تگ ( مثال بالا ) ميتواند جهت جلوگيري كردن از دسترسی اسپايدرهاي موتورجستجو به صفحات اختصاصي موجود در وب سایتتان مورد استفاده قرار بگيرد. مثلا ما کد بالا را در صفحه سبد خريد يک فروشگاه مجازي کرديم , جرا که ما نمي خواستيم كه بازديدكننده از طريق اين صفحات وارد سايت شود ( زيرا در اين صورت سايت به درستي كار نميكند ) . با وارد كردن اين کد در بالاي موتور جستجو اسپايدرها لينكهاي اين صفحه را فهرست بندي يا دنبال نميكنند. تگ متاي Robots ميتواند ازطريق يك فايل robots.txt استفاده شود.
< meta name=”robots” content=”index,follow” >
تگ متاي فوق باعث مي شودکه موتور جستجو صفحه را فهرست بندي كند و تمام لينكهاي آن را دنبال نمايد. اگر اين آن چيزي است كه شما ميخواهيد ( از آنجائيكه به طور پيش فرض اسپايدرهاي موتورجستجو اين کار را به هرحال انجام ميدهند ) از تگ متاي robot استفاده نكنيد.
< meta name=”robots” content=”noindex,follow”>
تگ متاي فوق باعث مي شودکه موتور جستجو اين صفحه را فهرست بندي نكند ، اما لينكها را دنبال ميكند. بعضي از طراحان سايتهاي اينترنتي كه از تكنيكهاي بهينه سازي black hat استفاده ميكنند از اين تگ براي مخفي كردن تكنيكهاي مشكوكشان استفاده ميكنند.
< meta name=”robots” content=”index,nofollow”>
تگ متاي فوق باعث مي شودکه موتور جستجو اين صفحه را فهرست بندي كند ،اما لينكها را دنبال نكند.
< meta name=”robots” content=”noindex,nofollow”>
تگ متاي فوق باعث مي شودکه موتور جستجو اين صفحه را فهرست بندي نكند و لينكها را نيز دنبال نكند. از اين متا معمولا در صفحاتي استفاده كنيد كه نميخواهيد موتورهاي جستجو با آنها ارتباط داشته باشند. درنتيجه تگ هاي متا براي صفحات نتايج موتور جستجو مهم نيستند ، ازاينرو در مورد آنها وقتتان را صرف نكنيد.

امید است در پایان این مقاله طراحان سایت بتوانند صفحات وب سایت خویش را هر چه بهتر از قبل مدیریت کرده و مهمتر از آن با قرار دادن عنوان مرتبط به هر صفحه , کاربران را از یک مقدمه خیلی کوتاه در مورد آن صفحه محروم نکنند.

دانه کولانه 12-20-2007 05:49 PM

1. آيا به ارايه دادن (submit) لينكهاى به ردوز در آمده و/يا فديمى و صفحهه ها در گوگل احتياج دارم؟
گوگل ضميمه ها و فهرست هاى خود را مكررا به روز در مياورد، پس submission هاى جديد و يا قديمى ضرورى نيست. ما ميبايست آنها را در هر مقطع زمانى فقط برداريم.
2. چگونه مي توانم يکباره چند صفحه را در گوگل ثبت كنم؟
لطفا صفحه اضافه كردن URLهاى<A href="http://www.google.com/intl/fa/add_url.html"> ما را ببينيد تا بتوانيد URL هاى خود را وارد كنيد. در آن قسمت فقط صفحه اول و يا اصلى هر سايت لازم ميباشد، پس لازم نيست كه شما مثلا آدرس تك تك صفحات را وارد كنيد. crawler و Googlebot ما قادر خواهند بود خود بقيه صفحات را پيدا كنند.
3. چرا گوگل هيچ يک از صفحه هاى سايت مرا فهرست نمي كند؟
صفحه هايي که تاکنون فهرست برداری نشده اند احتمالا در بررسي سايت منظورنشده اند. اين امر مي تواند به اين دليل باشدکه کمتر سندی در وب به آن صفحه پيوند زده است. --اگر از سايتهای ديگر سندی به صفحه های مجموعه درحال فهرست برداری پيوند نزده باشد، ما نمي توانيم معيار PageRank را برای آن صفحه تعيين کنيم(معيارPageRank ابزار ويژه ی ما برای سنجش اهميت صفحه های وب است).هنگامي که پيوندهای بيشتری به اين صفحه زده شود، ما آن را درفهرست خواهيم گنجاند. گوگل چگونگي پيوند ميان سندهای وب را ارزيابي مي کند و مي گذارد تا ماهيت آزاد و گسترده ی اينترنت، مناسبترين يافته ها را برای پرسش کاربران تامين کند.
4. روبوت گوگل برای فهرست برداری از يک نشاني وب چه مقدار زمان نياز دارد؟
بستگي به برنامه ی زماني روبوت و اين که نشاني وب چه هنگام داده شود، سراسر فرايند به يک تا چهار هفته زمان نياز خواهد داشت.
5. چرا برخي از زمانها عنوان صفحه در گزارش يافته های جست وجو ديده نمي شود؟
بعيد از بسيارى از ماشينهاى جستجوى ديگر، Web crawler - Googlebot ميتوانند نتيجه دهند حتى اگر در آن صفحه جستجو نكرده باشند. صفحه هايى كه شناخته شده اند ولى بررسى در آنها نشده باشند نيز قابل نتيجه گيرى هستند، ولى از زمانى كه ما آنها زا نگاه نكرده باشيم title آنها قابل نشان دادن نخواهند بود -- در عوض آدرس آنها نشان داده ميشوند.
6. چگونه مي توانم از گوگل بخواهم اطلاعات از پيش ذخيره شده سايت مرا نمايش ندهد؟
سيوال اين جواب به خوبى در صفحه "حذف محتوى" توضيح داده شده است.
7. چطور ميتوانم درخواست كنم وقتى كه گوگل تمام سايت منرا مورد بررسى (crawl) قرار نداده است؟
در قسمت سيستم خودكار ما براى بخشهايى كه مستثنا ميشوند، استانداردى هست كه اين استاندارد موجود در صفحه http://www.robotstxt.org/wc/norobots.html ميباشد. شما ميتوانيد براى اين استثنا يك فايل با نام robots.txt در سايت خود قرار دهيد.
راه ديگر برای اينکه روباتهارا مجبور کنيم که يک صفحه يا زير مجموعه آن را فهرست نکنند، استفاده از "META" ها در HTML است که توضيح آن در http://www.robotstxt.org/wc/exclusion.html#metaآمده است. علاوه بر اين شما مي توانيد بفهميد که HTML به روبوت چه مي گويد (البته به زبان انگليسی)! در ضمن به ياد داشته باشيد که تغييراتی که شما در فايل robot.txt يا در META های HTML می دهيد منجر به تغيير آنی در نتايج GOOGLE نمي شود. زيرا مدتی طول ميکشد تا هر نوع تغييری در فهرست جديد GOOGLE اعمال شود.
پرسشهايی درباره ی فناوری
1. چرا Googlebot فايل robots.txt را درخواست مي كند در حالى كه اين فايل در سرور من نيست؟
Robot.txt يک سند استاندارد است که به روبات گوگلی ميگويد چه اطلاعاتی از سرور وب شما را ذخيره نکند.
2. چرا Googlebot مي کوشد پيوندهای نادرست را از سرور من دريافت كند؟
اين که تعداد زيادی از LINKها از بين رفته باشد و يا اينکه هيچگاه وجود نداشته بودند، يک خصوصيت وب است. زيرا ممکن است يکی اشتباها به سايت شما اشاره کند و يا نتواند صفحاتش رو برای هماهنگی با تغييرات به روز کند. روبوگوگلی برای ذخيره پيوندهای غلط سايت شما هم زور خواهد زد! به همين خاطر ممکن است نتايج مربوط به ماشينی را ببينيد که هرگز وجود نداشته است.
3. چرا Googlebot اطلاعاتى را از وب سرور "پنهاني" ما دريافت مي كند؟
تقريبا غير ممکنه که بتونيد با منتشر نکردن پيوند، سايت خودتون را مخفی نگه داريد. چون به زودی يکی پيدا ميشود و آدرس سايت شما را در سايت ديگه ای قرار ميدهد. پس حالا امکان ذخيره اون توسط وب سرور مهيا شده و از اين طريق است که دير يا زود روبوگوگلی يا ديگر ابزارهای مشابه سايت شما را پيدا خواهند کرد!
4. چرا Googlebot از فايل robots.txt من پيروی نمي كند؟
برای صرفه جويي در پهنای باند، روبوگوگلی روزی يک بار و يا موقعی که تعداد زيادی صفحه از روی سرور برميدارد؛ Robot.txt را ميخواند. بنابراين مدتی طول می کشد تا روبوگوگلی تغييرات Robot.txt شما را متوجه شود. در ضمن Google روی تعداد زيادی از ماشين ها قرار دارد که هر کدوم Robo.txt را به طور مجزا نگه ميدارند. يادتون باشه مه گرامر صحيح را با استاندارد که در http://www.robotstxt.org/wc/norobots.html واقع شده، تطبيق بدهيد. اگه با همه اين کارها بازهم مشکل حل نشد، به ما بگوييد تا ما اون رو درست کنيم.
5. چگونه سايت خود را درGooglebot ثبت كنم تا فهرست برداری شود؟
ما هر بار که وب را مي کاويم بدون نياز به انجام کاري از جانب شما سايتهاي جديد را به فهرست خود اضافه مي کنيم.شما هم مي توانيد سايت خود را از طريق فرم اضافه کردن آدرس به اطلاع ما برسانيد.
6. چگونه سايتي را ازفهرست گوگل حذف كنم؟
Google تمام اطلاعات خود را به صورت اتوماتيک و طبق يک برنامه زمان بندي مشخص به روز مي کند.وقتي که ما به وب سر مي کشيم ، صفحات جديد را پيدا مي کنيم همچنين لينکهاي مرده را حذف مي کنيم و لينکها را به صورت اتوماتيک به روز مي آوريم.لينکهايي که در حال حاضر تاريخشان قديمي شده است را اقلب در مرور آينده از مجموع اطلاعات حذف مي کنيم.براي اطلاعات بيشتر لطفا اينجا را انتخاب کنيذ.
7. چرا در Google.com دسترسيهايى از چندين ماشين با حالت user-agent از Googlebot وجود دارد؟
Googlebot به طريقي طراحي شده است که بر روي چندين ماشين مختلف اجرا شود به اين ترتيب کارايي سيستم همزمان با بزرگتر شدن وب بهتر مي شود.همچنين ، براي کاهش استفاده از پهناي باند ما ترجيح مي دهيم که از روبوتهايي استفاده کنيم که بر روي ماشينهايي قرار داشته باشند که به سايتي که مي خواهيم به ليست اضافه کنيم نزديکتر باشد.

تغيير آدرس URL سايت شما
حذف سايت شما
حذف صفحات شخصى
حذف خورده ريزها
حذف صفحات مخفى -- Cached
حذف يك لينك تاريخ گذشته
حذف يك تصوير از جستجوگر تصاوير گوگل

دانه کولانه 12-20-2007 05:51 PM


A Standard for Robot Exclusion

Table of contents:
Status of this document

This document represents a consensus on 30 June 1994 on the robots mailing list (robots-request@nexor.co.uk), between the majority of robot authors and other people with an interest in robots. It has also been open for discussion on the Technical World Wide Web mailing list (www-talk@info.cern.ch). This document is based on a previous working draft under the same title.
It is not an official standard backed by a standards body, or owned by any commercial organisation. It is not enforced by anybody, and there no guarantee that all current and future robots will use it. Consider it a common facility the majority of robot authors offer the WWW community to protect WWW server against unwanted accesses by their robots.
The latest version of this document can be found on http://www.robotstxt.org/wc/robots.html.
Introduction

WWW Robots (also called wanderers or spiders) are programs that traverse many pages in the World Wide Web by recursively retrieving linked pages. For more information see the robots page.
In 1993 and 1994 there have been occasions where robots have visited WWW servers where they weren't welcome for various reasons. Sometimes these reasons were robot specific, e.g. certain robots swamped servers with rapid-fire requests, or retrieved the same files repeatedly. In other situations robots traversed parts of WWW servers that weren't suitable, e.g. very deep virtual trees, duplicated information, temporary information, or cgi-scripts with side-effects (such as voting).
These incidents indicated the need for established mechanisms for WWW servers to indicate to robots which parts of their server should not be accessed. This standard addresses this need with an operational solution.
The Method

The method used to exclude robots from a server is to create a file on the server which specifies an access policy for robots. This file must be accessible via HTTP on the local URL "/robots.txt". The contents of this file are specified below.
This approach was chosen because it can be easily implemented on any existing WWW server, and a robot can find the access policy with only a single document retrieval.
A possible drawback of this single-file approach is that only a server administrator can maintain such a list, not the individual document maintainers on the server. This can be resolved by a local process to construct the single file from a number of others, but if, or how, this is done is outside of the scope of this document.
The choice of the URL was motivated by several criteria:
  • The filename should fit in file naming restrictions of all common operating systems.
  • The filename extension should not require extra server configuration.
  • The filename should indicate the purpose of the file and be easy to remember.
  • The likelihood of a clash with existing files should be minimal.
The Format

The format and semantics of the "/robots.txt" file are as follows:
The file consists of one or more records separated by one or more blank lines (terminated by CR,CR/NL, or NL). Each record contains lines of the form "<field>:<optionalspace><value><optionalspace>". The field name is case insensitive.
Comments can be included in file using UNIX bourne shell conventions: the '#' character is used to indicate that preceding space (if any) and the remainder of the line up to the line termination is discarded. Lines containing only a comment are discarded completely, and therefore do not indicate a record boundary.
The record starts with one or more User-agent lines, followed by one or more Disallow lines, as detailed below. Unrecognised headers are ignored.
User-agent
The value of this field is the name of the robot the record is describing access policy for.
If more than one User-agent field is present the record describes an identical access policy for more than one robot. At least one field needs to be present per record.
The robot should be liberal in interpreting this field. A case insensitive substring match of the name without version information is recommended.
If the value is '*', the record describes the default access policy for any robot that has not matched any of the other records. It is not allowed to have multiple such records in the "/robots.txt" file.
Disallow
The value of this field specifies a partial URL that is not to be visited. This can be a full path, or a partial path; any URL that starts with this value will not be retrieved. For example, Disallow: /help disallows both /help.html and /help/index.html, whereas Disallow: /help/ would disallow /help/index.html but allow /help.html.
Any empty value, indicates that all URLs can be retrieved. At least one Disallow field needs to be present in a record.
The presence of an empty "/robots.txt" file has no explicit associated semantics, it will be treated as if it was not present, i.e. all robots will consider themselves welcome.
Examples

The following example "/robots.txt" file specifies that no robots should visit any URL starting with "/cyberworld/map/" or "/tmp/", or /foo.html:


نقل قول:

# robots.txt for http://www.example.com/User-agent: *Disallow: /cyberworld/map/ # This is an infinite virtual URL spaceDisallow: /tmp/ # these will soon disappearDisallow: /foo.html

This example "/robots.txt" file specifies that no robots should visit any URL starting with "/cyberworld/map/", except the robot called "cybermapper":


نقل قول:

# go awayUser-agent: *Disallow: /

Example Code

Although it is not part of this specification, some example code in Perl is available in norobots.pl. It is a bit more flexible in its parsing than this document specificies, and is provided as-is, without warranty.
Note: This code is no longer available. Instead I recommend using the robots exclusion code in the Perl libwww-perl5 library, available from CPAN in the LWP directory.

کارگر سایت 02-07-2008 11:18 PM

چه خوب میشد اگر به یکباره در نتایج جستجوی گوگل در بالاترین درجه قرار میگرفتیم ! براستی تاکنون به این موضوع فکر کرده اید که ملاک موتورهای جستجو در نمایش نتایج جستجو و قرار دادن یک سایت بالاتر از دیگری در چیست؟ در این قسمت قصد دارم شما را با یکی از این تکنیک ها به نام Google Page Rank و یا بطور اختصار Google PR آشنا کنم. با ما باشید.
بطور خلاصه Page Rank یک سیستم جستجوی مبتنی بر شبکه بهم پیوسته لینک هاست که به هر کدام از اجزای آن(یعنی در حقیقت به هر وب سایت مورد اشاره) یک ارزش وزنی اختصاص میدهد که این خود به تنهائی درجه اهمیت یک سایت را مشخص میکند (هرچه به سایتی بیشتر لینک داده شده است خب حتما مهمتر است دیگر!).
Page Rank بعنوان یک پروژه تحقیقاتی در سال 1995 در دانشگاه استنفورد و توسط Larry Page (که لابد اسمش را هم گذاشته روی پروژه اش) و Sergey Brin آغاز شد و هدفش دستیابی به نسل جدیدی از موتورهای جستجو بود که در سال 1998 بلاخره به یک پروژه عملی تبدیل شد و در آن سال گوگل متولد گردید. چندی بعد Page و Brin شرکت Google Inc را بعنوان شرکت اصلی موتور جستجوی گوگل تاسیس نمودند. ولی هنوز پروژه اولیه منجر به تولد گوگل (Page Rank) را فراموش نکرده و بعنوان یکی از فاکتورهای جستجوی گوگل جهت تعیین مرتبه صفحات ، مورد استفاده قرار میدادند.
گوگل خود درباره Page Rank چنین میگوید : Page Rank یک روش ابتکاری مبتنی بر ساختار دموکراتیک وب است که از شبکه گسترده لینک ها جهت تعیین مرتبه و امتیاز یک صفحه معین استفاده میکند بعنوان مثال تفسیر گوگل از لینک موجود در صفحه A که به صفحه B اشاره میکند ، در واقع نوعی رأی مثبت صفحه A به صفحه B میباشد که البته مبنای امتیاز دهی گوگل صرفا تعداد این رأی ها نیست بلکه صفحه ای هم که این لینک را داده است توسط گوگل بررسی میشود . مسلم است که هر چه رتبه این صفحه اول، خود بالاتر باشد تاثیر مستقیم در رتبه سایت دوم یعنی B دارد. پس هرچه یک سایت مهمتر به صفحه شما لینک داده باشد صفحه شما نیز در رده بندی گوگل بالاتر خواهد ایستاد.
از لحظه ارائه این الگوریتم تاکنون بررسی های متعددی پیرامون روش کار آن و راههای بهبود عملکرد آن ارائه گردیده است. یکی از مشکلاتی که ممکن است در این الگوریتم پیش آید هنگامی است که شخصی جهت بالا بردن درجه اهمیت سایت خود اقدام به تولید لینکهای کاذب به صفحه مورد نظر خود بنماید که با اینکار Page rank را به اشتباه بیاندازد. برای رفع این مشکل گوگل اقدام به تهیه یک کد به صورت rel=nofollow نمود که با قرار دادن این کد قبل از لینک مورد نظر گوگل از آن جهت بررسی در Page Rank صرفنظر میکند.
از دیگر موارد جدید Page Rank قرار دادن باصطلاح Toolbar آن در صفحه مورد نظر است که رتبه صفحه شما را از میان اعداد از یک تا ده نمایش میدهد که عدد بالاتر رتبه بالاتری دارد که البته چون بنا به گفته گوگل این Toolbar هر سه ماه یکبار Update میشود زیاد نمیتوان به آن بعنوان یک ابزار قابل اطمینان جهت تعیین رتبه صفحه مورد نظر تکیه کرد.
همچنین بر همین سیاق میتوان به مورد Google Directory Page Rank اشاره کرد که همانند Toolbar یک ابزار بررسی رتبه سایت میباشد با این تفاوت که در Toolbar با قرار دادن موس بروی آیکن سبزرنگ آن رتبه سایت از بین یک تا ده به نمایش در می آید ولی در مورد Directory رتبه سایت در حالت عادی قابل مشاهده نیست و در اصل یک ابزار نشان دهنده به خود گوگل و Page Rank برای شناسائی این رتبه میباشد.
در یک بررسی دقیقتر Page Rank متشکل از یک جدول توزیع احتمال است که میزان شانس کلیک های احتمالی بصورت تصادفی از صفحات مختلف به مقصد یک صفحه فرضی را بنمایش میگذارد که برای صفحه ای با هر اندازه دلخواه قابل محاسبه است. بطور کلی در اکثر تحقیقات علمی برای شروع عمل محاسبه رتبه سایت با توجه به تعداد سایت های مورد بررسی احتمال اولیه بین آنها تقسیم میشود (مثلا اگر در حال بررسی 5 سایت متفاوت هستیم در ابتدا برای هرکدام شانس 20 درصد را در نظر میگیریم). در عمل Page Rank برای انجام پروسه خود به عملی به نام تکرار (iterations) احتیاج دارد که منظور از آن عمل گشتن در میان لینک های مختلف از سایت های متفاوت است (از یک سایت شروع و همینطور لینکها را دنبال میکند). که در اینجا عددی مابین صفر و یک را به هرصفحه نسبت میدهد مثلا یک صفحه با Rank 0.5 یعنی احتمال اینکه شخصی با فشردن یک لینک بطور تصادفی به این قسمت هدایت شود 50 درصد میباشد.
فکر کنم یک مثال وضعیت پیچیده بالا را کمی روشن کند : فرض کنید در حال بررسی چهار صفحه A،B،C و D هستیم. طبق آنچه که در بالا تشریح کردیم در ابتدا برای هرکدام شانس مساوی و برابر 0.25 را در نظر میگیریم. خب حالا باز فرض کنید که هر سه صفحه B،C و D هرکدام به تنهائی به صفحه A لینک داده اند به همین خاطر Rank صفحه A برابر حاصل جمع Rank صفحات B،C وD میباشد که میشود 0.75 . اگر در این لحظه فرض کنیم که صفحه B علاوه بر A به صفحه C نیز لینک داده است و همچنین صفحه D نیز به تمامی سه صفحه دیگر لینک داده است آنوقت ارزش رأی صفحه ای که به چندین صفحه لینک داده است به تعداد لینک هایش تقسیم میشود مثلا در این مورد ارزش صفحه A عبارت است از:
محاسبه Page Rank بهمراه ضریب تعدیل (Damping Factor):
مکانیزم عملکرد Page Rank در نظر میگیرد که حتی یک User موهومی (که میتواند یک روبات مخصوص کلیک کردن باشد) هم در نهایت به کلیک کردن خود پایان میدهد بهمین خاطر و برای دقیق تر کردن رتبه بندی خود ، Page Rank فاکتوری به نام فاکتور تصحیح یا d را معرفی میکند که عبارت است از احتمال اینکه User (در هر مرحله ای که باشد) به عمل کلیک کردن خود ادامه دهد. این فاکتور تاکنون از روش های متفاوتی محاسبه شده است ولی در عمل برای آن مقداری در حدود 0.85 را در نظر میگیرند که در محاسبه رتبه سایت این فاکتور را از عدد یک کسر کرده و حاصل را با حاصلضرب فاکتور تصحیح و Rank قبلی ، جمع مینمایند بصورت زیر : (عمرا فکر میکردید گوگل به این پیچیدگی باشد؟)
بدین صورت رتبه هر صفحه بطور گسترده ای وابسته به رتبه صفحات دیگری که به آن لینک داده اند میباشد.
گوگل هرگاه که اقدام به Update کردن خود مینماید این Rank ها نیز به روز میشوند و البته با افزایش صفحات موجود در آرشیو گوگل رتبه ابتدائی برای صفحات نیز خود بخود کاهش می یابد (چون بین تعداد بیشتری تقسیم میشود) برای Update شدن این Rank ها گوگل بصورت تصادفی از یک URL (آدرس اینترنتی) آغازکرده و با دنبال کردن لینکهای موجود در آن صفحه به صفحات و صفحات دیگر میرود و این روند را دنبال میکند خب حالا اگر در این میان به صفحه ای بر بخورد که در آن هیچ لینکی موجود نباشد(Sink) آنوقت تکلیف چیست ؟ پاسخ راحت است در آن لحظه یک URL دیگر بطور تصادفی اتنخاب میگردد.
بطور حتم Google Page Rank یکی از چندین راه شناساندن صفحات مهم به جستجو گر Google میباشد که ارزش آن تا به جائی رسیده است که بسیاری از وب سایت ها برای گذاشته شدن لینک صفحه شان در سایتهای معروف مبالغ هنگفتی را پرداخت میکنند که البته این نیز از دید گوگل پنهان نمانده است و به آنها اخطار کرده که در صورت محرز شدن این امر آن لینک ها را نادیده میگیرد.
راستی دوست داشتید که لینک سایت شما درست زیر صفحه معروف جستجوی گوگل می بود؟

English Excerpt : This is a Persian article about Google Page Rank. It describes the method of page ranking by Google
منبع

دانه کولانه 03-19-2008 10:00 PM

جستجوگر متقلب ها
 
جستجوگر متقلب ها

http://www.pcpress.ir/wp-content/upl.../copyscape.png


موضوع اصلی درباره ی سايت CopyScape. اين سايت به نوعی مجری قانون كپی رايت در بخش copy/past مطالب سايت ها است. ابزار جستجوی اين سايت كاربران را قادر می سازد تا با استفاده از موتور جستجوی اين سايت به راحتی تنها با وارد كردن نام سايت خود مطالبی از سايتشان را كه در سايت های ديگر copy/past شده اند پيدا كنند. اين سايت در حالت معمولی يا مجانی فقط ده مورد ازسايت های رو كه بدون اجازه از مطالب شما استفاده كردند رو نشون می ده و برای ديدن نتايج بيشتر بايد از سرويس Premium اين سايت استفاده كنيد. تقريباً برای هر بار جستجو كامل يا همون Premium چيزی در حدود ۰.۰۵ دلار می گيره.
شايد بگيد همين كار رو هم سايت های جستجوی معمولی مانند گوگل نيز انجام می دن و چه فرقی با اين سرويس داره؟ بله مسئله همين جاست و تفاوت اين موتور جستجو با موتور های جستجوگر ديگه همين جا مشخص می شه. در واقع اصول كار اين جستجوگر به اين صورت كه تنها مطالبی رو كه بدون اجازه شما انتشار پيدا كرده باشن رو نمايش می ده. يعنی اين جستجوگر اگر ببينه مطلبی عين مطلب شما بعد از اون تاريخی كه شما اون مطلب رو ارائه كرديد بدونه اين كه اسمی از منبع مطلب برده شده باشه انتشار پيدا كرده به عنوان يك مطلب copy/past شناسايی می كنه و اون رو در ليست متخلفين قرار می ده.
http://pcpress.ir

البته این سایت به درد جستجوی سایتهایی که مثل ما فروم هستند نمیخوره
امتحان کنید ببینید چرا ؟ اما کلا سایت خیلی باحالیه

دانه کولانه 05-25-2008 10:16 PM

سایت خود را در مرورگر های مختلف ببینید
 
سایت خود را در مرورگر های مختلف ببینید


این مقاله رو به شکل دیگه ای قبلا گذاشته بودم اما هر چی میگردم پیداش نمیکنم:confused:

شاید ندانید که سایت شما در مرورگرهای مختلف به شکلهای مختلف نشان داده می شود، در این صورت بایستی سایت خود را به گونه ای طراحی کنید تا در اونع مرورگرها بصورت صحیح و زیبا نمایش داده شود. گاهی ممکن است سایت شما در مرورگر خاصی نمایش داده نشود. سعی کنید که قبل از ارسال سایت خود بر روی اینترنت بررسی کنید که آیا صفحات طراحی شده شما در مرورگرهای مختلف بدرسی نشان داده می شود.
با استفاده از فناوری وب سایت http://browsershots.org خواهید توانست که تصاویری از نحوه نمایش سایت مورد نظر خود در انواع و اقسام مرورگرها مبتنی بر انواع مختلف سیستم عامل ها مشاهده کنید.

کافی است وارد این وب سایت شده: http://browsershots.org ، آدرس سایت مورد نظر خود را وارد کنید و سپس موارد مورد نیاز را انتخاب کنید و فرم را ارسال کنید. پس از گذشت چند دقیقه Screenshot ( تصاویر) گرفته شده از مرورگهای نمایش دهنده سایت شما، مشاهده خواهد شد.

برای مثال سایت خودمون رو از این آدرس در مرورگرهای مختلف ببینید
http://browsershots.org/http://www.p30city.net

امیر عباس انصاری 07-19-2008 05:22 AM

kodoom معرفی موتور جستجوی فارسی کدوم ( www.kodoom.com )
 
kodoom معرفی موتور جستجوی فارسی کدوم ( www.kodoom.com )

معرفی موتور جستجوی فارسی کدوم

http://www.kodoom.com/images/logo.png

Every Persian Event on the Planet TM

تمام رویدادهای ایرانی و پارسی در جهان


سوالات متداول



Kodoom چیست؟

Kodoom یک موتور جستجوی مخصوص رویدادهای ایرانی و فارسی می باشد. تقریبا اکثر رویدادهای فارسی مانند کنسرتها، کنفرانسها، نمایش فیلمها و غیره در Kodoom اعلام می شوند. در اینجا نقاطی را که موتور جستجوی kodoom در آنها رویدادهای ایرانی پیدا کرده است را بر روی نقشه ببینید.



من چگونه از Kodoom استفاده کنم؟

اگر مایلید لیست رویدادهای اطرافتان را ببینید نام شهر را در قسمت "where" وارد کرده و دکمه "Go" را فشار دهید. شما همچنین می توانید از امکان جستجوی با کلمات کلیدی ما استفاده کنید. به عنوان مثال اگر به دنبال لیست کنسرتهای استاد شجریان می گردید، در قسمت "keywords" عبارت Shajarian را وارد کرده و دکمه "Go" را فشار دهید. لطفا توجه داشته باشید که با کلمات و عبارات فارسی نمی توانید جستجو کنید.

من چگونه می توانم در Kodoom تبلیغ کنم؟

لطفا برای تبلیغات از صفحه "Advertising Programs" استفاده کنید.



Frequently Asked Questions

http://www.kodoom.com/images/kcenterlogo.png
Q: What is Kodoom?

A: Kodoom is a Persian Events Search Engine. It contains the most complete list of upcoming Persian events around the planet. Kodoom helps you quickly find out what's going on, wherever you are. Find local Persian events, concerts, meetings, restaurants, or where your favorite band is playing next. See Where on the Planet we found Persian events for you.

If you want to promote an event or a business, Kodoom is a fast, easy and low-cost way to distribute information to your "target" market.

Q: What does "Kodoom" mean?

A: Kodoom means "which one" in Persian.

Q: How do I use Kodoom?

A: In Kodoom, you can search for events both by location and by keywords. If you want to search for local events around a location enter the name of the location (e.g., Los Angeles or London or Tehran) or its zip code (e.g., 90018) and press "Go". We would list nearby events for you. Similarly, you can use our keyword based search by entering some keywords in the keywords box of the home page and pressing the "Go" button. For example, you can search for Shajarian, Siavash, Taraneh, etc.
If you're an event promoter or organizer, Kodoom is a great way to distribute information about your events.


Q: Who are you?

A: We are a non-political organization. Our goal is to connect event seekers, event promoters, and Persian Businesses in a convenient, user-friendly and cost-effective manner. We want to provide a unique and valuable service to the Persian Community at large. Please also check our "About us" page.

Q: Where does Kodoom get all its event information?

A: Our robot goes out everyday and explores the web to find Persian event announcements. If there is a match we index the announcement, and it becomes part of our searchable index. Much of our information is also submitted by users, who want to promote their events and businesses.

Q: I want to promote my event or business. How can Kodoom help me?

A: People often walk away or change the channel during TV or radio commercials, and flip through commercial pages in Papers, but Kodoom users are people who are "Actively" Seeking Persian Events and Businesses in their "Area." So Kodoom allows Precision "Target" marketing to "Captive" customers in your "Target Location" who are "Actively Seeking" Your product. This is either impossible or extremely expensive through traditional promotional channels on mass media (TV, Radio, Paper, Static Internet Site).

Q: I want Kodoom to crawl my site and extract/list our events regularly. what can I do?

A: Please use our "Suggest a Website" page submit the address of your website there.

Q: How can I advertise my business in Kodoom?

A: Please use our "Advertising Programs" page.

Q: The details for an event need to be updated or corrected. How can I do this?

A: 1) Register 2) Log in 3) Go to the event page and look for the 'Edit or Promote this Event' link at the top of the listing detail page. Click the link to access the Edit Event page. When you are finished making edits, save your changes. Our administrators would review your comments and would fix the problem soon.





دانه کولانه 06-09-2009 09:05 PM

TinEye ، جستجوگر هوشمند عکس یک سایت وحشتناک عالی که حتی فکرشم نمیکنید !
 
TinEye ، جستجوگر هوشمند عکس یک سایت وحشتناک عالی که حتی فکرشم نمیکنید !

تا حالا شده شک کنید که شاید یکی از عکس هایتان توسط کسی در اینترنت پخش شده باشد؟ ممکن است شما را به عنوان یک قاتل فراری معرفی کرده باشند و شما از همه جا بی خبر!
یا اینکه اصلآ بخواهید یک عکس مشخص را مثلآ با کیفیت بهتر یا در یک هاست دیگر پیدا کنید؟
TinEye به شما کمک می‌کند بفهمید که آیا از یک عکس خاص در جایی از اینترنت استفاده شده است یا نه؟ چطوری؟
ابتدا وارد سایت TinEye شوید و درخواست دعوت نامه کنید (این سایت هنوز در مرحله تست قرار دارد).
بعد از چند ساعت درخواست شما تایید می‌شود و می‌توانید اکانت بسازید.
بعد از وارد شدن به سایت فقط کافی است عکس را آپلود کنید یا آدرس اینترنتی آن را بدهید تا نتیجه را ببینید.
TinEye عکس شما را از جهات مختلف مثل اندازه ، پسوند ، حجم و رنگ و شکل پیکسل های به کار رفته مورد بررسی قرار می‌دهد تا عکس های مشابه را پیدا کند. در حال حاظر ایندکس این سایت خیلی گسترده نیست و شاید در مواردی نتایج دلخواه را به شما ندهد ولی همین حالا هم خیلی خوب کار می‌کند.
عکس زیر را ببینید تا شگفت زده شوید:
می‌توانید افزونه این سایت را برای فایرفاکس یا IE از اینجا نصب کنید تا راحت تر با این سرویس کار کنید.
می‌توانید از اینجا وب سایت خودتان را اضافه کنید تا عکس های آن ایندکس شود.
می‌توانید سوالات متداول راجع به این سرویس را در اینجا ببینید (انگلیسی).



دانه کولانه 06-09-2009 09:14 PM

واقعا وحشتناکه ...
من اگه بهم میگفتند یه سایتی هست که این کارو میکنه و ایمیل شما رو میگیره 1 هفته بعد نتیجه رو به ایمیلتون ارسال میکنه هم میگفتم واقعا دمشون گرم !
اما اینیکی در حد سرعت جستجوی تصویری گوگل هم نتایج رو نشون میده
من این مطلب رو بار اول در مجله دنیای کامپیوتر خوندم اما متن بالا رو از سایت زنگوله اوردم
...




2 کاربرد مهم که من براش سراغ دارم اینه که اولا شما مثلا یه عکس خیلی مناسب از فلان شخصیت مهم دارین که میخواین پوسترش کنین اگه اون عکس رو از نت گرفته باشین مخصوصا سایتهای ایرانی انواع اقسام لوگو ها و آدرسهای اینترنتی روشه ! حالا شما سرچ میکنین نمونه سالمشو در سایت دیگه ای پیدا میکنین

و یا اسم یه بازیگری رو که عکسشو دارین اما نمیدونین چی هست رو با این طریق سرچ میکنین به احتمال خیلی زیاد به نامش و سایر عکسهاش میرسین

مثلا یه روز امیر عباس خودمون این
http://tineye.com/query/ee0994e1e463...9a10e7dbf782a0

این بازیگرو از من خواست که اسم کامل و یه سری عکساشو براش پیدا کنم
خب این کار رو به سختی کردیم و چند عکس براش پیدا شد اما
از طریق نتایجی که این سایت در اختیار من گذاشت به
http://actriceshollywood.blogs.alloc...magnifique.htm
هدایت شدم که کلی عکس ازش هست


یا شما یه گوشی موبایل عکسشو توی نت دیدین خوشگله و خوشتون میاد بدونین چیه ولی اسمشو نمیدونین...

خب چیکار میکنین ؟


یا میخواین بدونین شبیه کی هستین ؟ ! نکنین این کاروو..

باور میکنین من کلی عکس ایرانی رو سرچ کردم به راحتی برام پیدا کرد ؟

مثلا این عکس رو
http://tineye.com/query/d049b3c1401d...e63e48333bdfab

36 تا دیگه عین اون برام پیدا کرد...

دانه کولانه 06-09-2009 09:34 PM

Bing.com آيا دنيا به موتورجستجوي ديگري نياز دارد؟
 
Bing.com آيا دنيا به موتورجستجوي ديگري نياز دارد؟

آيا دنيا به موتورجستجوي ديگري نياز دارد؟
http://www.jamejamonline.ir/Media/im...0908819730.jpg
مايكروسافت در بازار موتور جستجو، هر وقت با گوگل رقابت كرده است،‌يك چيز نصيبش شده: شكست. اما تاثير موتورهاي جستجو در جذب مشتري آن‌قدر زياد است كه اين شركت هيچ‌گاه دست از رقابت نخواهد كشيد.

موتور جستجوي بينگ كه پنجشنبه گذشته براي اولين‌بار به‌عموم نشان داده شد، همانند ديگر موتورهاي جستجو، هر كلمه‌اي را كه واردش كنند، جستجو خواهد كرد. اما بينگ براي كساني كه بخواهند در 4 شاخه خريد، سفر، سلامت و امور محلي جستجو كنند، نتايج جالب توجهي خواهد آورد. ‌ ‌

اين استراتژي ممكن است به مايكروسافت كمك كند تا كاربران را از سوي موتورهاي جستجوي اوليه به سمت خودش بكشاند و در نتيجه بتواند تبليغات بيشتري بگيرد. اما حتي اگر مايكروسافت در اين كار موفق باشند، احتمال اين‌كه گوگل و ياهو اين ويژگي‌ها را به‌خود اضافه كنند،‌وجود دارد. از زمان قديم موتورهاي جستجو قابليت‌هاي همديگر را كپي مي‌كردند. ‌ ‌
در سال‌هاي اخير اول از همه پيشنهاد كلمه‌هاي مرتبط با جستجو به‌عنوان ويژگي مطرح شد، بعد تصاوير و بعد ويدئوها اضافه شدند. گرگ استرلينگ، تحليلگر اينترنت موسسه تحقيقاتي هوش بازار استرلينگ، مي‌گويد: «اگر يك ويژگي خاص به‌طور خاصي محبوب شود، براي اضافه كردن آن به گوگل اصلا نياز به انتظار طولاني مدت نيست.»
بينگ يك مشكل ديگر نيز پيش روي دارد: بر اساس تحقيقاتي كه خود مايكروسافت انجام داده است بيش از 60 درصد كاربران اين شركت اعلام كرده‌اند كه از نتايج موتورهاي جستجوي فعلي رضايت دارند. اين نتيجه كار را براي شركتي كه تنها 8 درصد سهم بازار دارد و گوگل 64 درصد همان بازار را تصاحب كرده است، ‌دشوار مي‌كند.
تحقيقات مايكروسافت نشان مي‌دهد از هر چهار جستجو، تنها يكي در اولين بار به نتيجه مي‌رسد و بقيه بايد كلمه‌هايي كه جستجو مي‌كنند را تغيير دهند يا به وبگردي بپردازند. ‌‌جستجوهاي مرتبط با مسافرت نشان مي‌دهد كه مايكروسافت چطور مي‌خواهد رقبا را كنار بزند. مثلا اگر عبارت پرواز از سياتل به سان فرانسيسكو را سرچ كنيد، اولين لينك به شما اولين پرواز را خواهد داد و قيمت بليت آن. همچنين مي‌توانيد به رزرو بليت براي هفت روز آينده بپردازيد. همين جستجو در گوگل يا ياهو فهرست وب‌سايت‌هاي هواپيمايي را مي‌آورد، اما قيمت بليت‌ها را خير. ‌ ‌
مايكروسافت اين بار به‌دنبال ساخت موتور جستجويي رفته است كه آن را به‌اصطلاح «عمودي» مي‌نامند. عمده فعاليت مايكروسافت در نقاط ضعف گوگل است و نتايجي را نشان مي‌دهد كه گوگل از قرار معلوم در آن بخش‌ها ضعيف عمل مي‌كند. ‌ ‌
پراباكار رغوان، سرپرست آزمايشگاه‌هاي ياهو و استراتژي جستجوي ياهو مي‌گويد: «بازار موتورهاي جستجو هنوز در مراحل اوليه قرار دارد و فرصت‌هاي بي‌شماري براي خلاقيت و نوآوري وجود دارد، ما از ورود بينگ به رقابت استقبال مي‌كنيم.»
نيت تايلر، سخنگوي گوگل هم اعلام كرد: «رقيب جدي داشتن سود بزرگي براي ما و فضاي جستجو است. باعث مي‌شود سخت‌تر كار كنيم و در انتها، اين كاربران هستند كه از اين رقابت سود خواهند برد.»

دانه کولانه 06-09-2009 09:35 PM



رقابت در دنیای تکنولوژی گویا هر روز شکل جدی‌تری به خود می‌گیرد تا جایی که شرکت‌های بزرگ برای موفقیت در این عرصه سعی دارند خدمات و محصولات جدیدی را با امکانات متفاوت از رقبای خود معرفی کنند.

در این میان اما شرکت‌های مایکروسافت، گوگل و یاهو سال‌هاست که در زمینه موتورهای جست‌وجوی آنلاین رقابت نزدیکی با یکدیگر دارند تا آنجا که این رقابت به معرفی موتور جست‌وجوی جدی مایکروسافت در هفته گذشته منتهی شد.

به این ترتیب غول نرم‌افزاری دنیا آخر هفته گذشته در کنفرانس All Things D که در شهر سن‌دیه‌گو برگزار شده بود، موتور جست‌وجوی جدید خود با نام Bing را برای اولین بار معرفی کرد. این موتور جست‌وجوی اینترنتی که در واقع به عنوان جایگزین موتور جست‌وجوی قدیمی مایکروسافت یعنی Live‌Search معرفی شده، قرار است از روز سوم ماه ژوئن امسال به صورت رسمی و در تمام جهان در دسترس و مورد استفاده قرار بگیرد.

Bing برای رقابت جدی‌تر با پربیننده‌ترین موتور جست‌وجوی اینترنتی این سال‌ها یعنی Google طراحی شده و طبق ادعای مدیران مایکروسافت می‌تواند رقیب خوبی برای گوگل از نظر ایجاد درآمد و البته تعداد بازدیدکنندگان به حساب بیاید.

درست به همین دلیل هم هست که “استیو بالمر” مدیر عامل مایکروسافت در کنفرانس پنج‌شنبه گذشته در سن‌دیه‌گو گفته است: “تبلیغات به عنوان یک مدل تجاری در اینترنت کمتر از آنچه باید در میان مردم عامه رواج پیدا کرده و جا افتاده است. مایکروسافت در حقیقت با معرفی این موتور جست‌وجوی جدید تمایل دارد، یک بار دیگر ارزش را میان شرکت‌های ارائه‌‌دهنده محتوای اینترنتی، شرکت‌های آگهی‌دهنده و موتورهای جست‌وجوی اینترنتی تقسیم کند.”

عنکبوت یا صدای آسانسور

انتخاب نام برای یک محصول یا خدمات این روزها به اندازه امکانات و قابلیت‌های آن اهمیت دارد تا آنجا که متخصصان بسیاری برای انجام این کار در شرکت‌های بزرگ دنیا فعالیت می‌کنند.

مایکروسافت هم گویا برای انتخاب نام موتور جست‌وجوی جدیدش زمان زیادی صرف کرده و در نهایت یک نام‌آوای مناسب را ترجیح داده است. Bing در واقع صدای ورود یا شاید رسیدن به نتیجه دلخواه است که بهترین نمونه آن صدای آسانسور در هنگام رسیدن به طبقه مورد نظر می‌تواند باشد.

این در حالی است که قبل از انجام انتخاب نهایی نام Bing، این موتور جست‌وجوی جدید با نام دیگری در میان کارمندان شرکت شناخته می‌شد. این موتور جست‌وجو در داخل شرکت با نام کومو (Kumo) که به زبان ژاپنی به معنای عنکبوت و ابر است، نامیده می‌شد. عنکبوت در واقع به شیوه جست‌وجوی این ابزار در میان منابع اینترنتی مربوط است و ابر به تکنولوژی Cloud Computing به کار رفته در این موتور جست‌وجوی جدید اشاره دارد.

سه موتور جست‌وجوی بزرگ با امکانات مشابه اما متفاوت

ورود و معرفی موتور جست‌وجوی Bing، اما این روزها این سوال را به ذهن کارشناسان و حتی اغلب کاربران عادی اینترنت متبادر می‌کند که آیا واقعا این ابزار جدید می‌‌تواند به ساختار موتورهای جست‌وجوی گوگل و یاهو ضربه جدی وارد کند.

این ابزار جست‌وجوی اینترنتی جدید از قابلیت‌های تازه‌ای هم برای تحقیق و بررسی در دنیای مجازی بهره‌ می‌برد که می‌تواند آن را از رقبایش متفاوت کنند. ابزار جست‌وجویی مانند Explorer‌Pane برای تصحیح و اصلاح نتایج جست‌وجو، Quick Preview برای نیم نگاه انداختن به یک وب‌سایت قبل از آنکه آن را به طور کامل بازدید کنند و Sentiment Extraction برای جست‌وجو در بررسی‌های دقیق یا Reviewهای یک محصول خاص امکانات جدید Bing هستند که می‌توانند نظر بسیاری از کاربران را به آن جلب کنند.

با این همه اما بسیاری از کارشناسان همچنان معتقدند که موتور جست‌وجوی گوگل به خاطر ارائه نتایج جست‌وجوی قابل‌اطمینان و دقیق و البته ابزار جست‌وجوی منحصر به فرد مانند Street Views زرنگ‌تر از رقبای دیگرش به نظر می‌رسد. از طرفی یاهو هم با ارائه خدمات جست‌وجوی خود بر اساس استفاده از شبکه قدرتمند محتوایی خود کاربران و طرفداران خاص خودش را دارد.

درست به همین دلایل هم هست که مقایسه شباهت‌ها و تفاوت‌های این سه رقیب حالا احتمالا برای اغلب کاربران اینترنت جالب توجه می‌تواند باشد. با این اوصاف بعضی از ویژگی‌ها و امکانات این موتورهای جست‌وجوی اینترنتی را با یکدیگر مقایسه می‌کنیم.

صفحه اصلی یا ورود

صفحه اصلی Bing طراحی متفاوت و به اصطلاح پر زرق و برقی دارد که بیشتر به خاطر عکس پس زمینه آن مورد توجه است. این تصویر پس‌زمینه هر روز تغییر می‌کند و قسمت مربوط به ورود عبارت یا کلمه مورد جست‌وجو در بالا و قسمت چپ این صفحه قرار دارد. قسمت پایین این صفحه، اما به لینک‌های مربوط به دیگر وب‌سایت‌های کاربردی مایکروسافت مانند MSN، Windows Live و Bing Travel تعلق دارد. با این حال اما موتور جست‌وجوی گوگل، هم با صفحه اصلی ساده و پس‌زمینه سفید رنگش قابل‌توجه است.

لینک‌های مختلف در صفحه اول گوگل اما با رنگ آبی و در نواری در بالای صفحه تعبیه شده‌اند. در مقابل این سادگی صفحه اول یاهو، اما بسیار شلوغ و آشفته به نظر می رسد. این نشان‌دهنده تمایل این شرکت به امور دیگری غیر از جست‌وجوی اینترنتی هم هست.
نتایج جست‌وجو

نتایج جست‌وجو در موتور جست‌وجوی Bing به دو بخش اصلی تقسیم می‌شود. پنل سمت چپ صفحه شامل Quick Tabs است که امکان تمرکز روی موضوع مورد نظر را به طور دقیق و با سرعت زیاد در اختیار کاربرانش می‌گذارد و بخش دوم که در قسمت وسط صفحه قرار گرفته، مربوط به نتایج جست‌وجو دسته‌بندی شده است که نتایج را به گروه‌هایی مرتبط با یکدیگر تقسیم می‌کند. در برابر نتایج جست‌وجو در گوگل و یاهو بسیار شبیه به هم بوده و دسته‌بندی مشخصی ندارد. این نتایج جست‌وجو بر اساس میزان ارتباط با موضوع مورد نظر کاربر از بالا به پایین قرار می‌گیرند.

اصلاح نتایج جست‌وجو

ابزار اصلاح جست‌وجو در Bing که به عنوان Explorer Pane شناخته می‌شود در هر مرحله جست‌وجو نمایش داده می‌شود، این در حالی است که در گوگل و یاهو برای دسترسی به این لینک‌ها باید روی هر کدام کلیک کرد. در این دو موتور جست‌وجو در واقع این لینک‌ها تنها در صفحه اول جست‌وجو در دسترس قرار دارند.

اطلاعات محلی

Bing در این مورد قابلیت‌های جدیدتری را به کاربرانش می‌دهد که بر اساس آنها می توانند با سرعت بیشتری اطلاعات را به دست بیاورند. این موتور جست‌وجو در واقع با استفاده از منابع زیاد و مختلف می‌تواند حتی اطلاعات مربوط به کیفیت غذا، فضا و حتی اندازه یک رستوران محلی را در اختیار کاربرانش قرار بدهد. گوگل اما این کار را با استفاده از نقشه، رتبه‌بندی به‌وسیله ستاره دادن، عکس یا اطلاعات داده شده توسط خود کاربران انجام می‌دهد و در مقابل یاهو تنها اطلاعات محدودی را درباره مکان آن رستوران نمایش می‌دهد.

جست‌وجوی نقشه

نقشه‌ها در Bing در حقیقت چیز متفاوتی در مقایسه با آنچه در Live Search وجود دارد نیستند، اما این موتور جست‌وجوی جدید مانند گوگل از ابزارهای مختلفی برای کنترل مکان و یافتن آن بهره می‌برد. با این حال اما گوگل همچنان به خاطر وجود قابلیت‌هایی مانند StreetView همچنان طرفداران بسیاری دارد. Bing هم مجهز به امکانی به نام BirdEyeView است که عکس‌های بسیار زیاد و متنوعی از شهرهای مختلف دنیا را در خود دارد. یاهو اما در قسمت چپ صفحه اصلی خود امکان جست‌وجو در نقشه را برای کاربرانش فراهم آورده است.

با این وجود، اما این ابزار یاهو تنها تصاویر ماهواره‌ای از نقاط مختلف دنیا را برای کاربرانش به نمایش می‌گذارد.با تمام اینها موتور جست‌وجوی جدید مایکروسافت امکانات متفاوت دیگری را هم به کاربرانش می‌دهد که تنها تا زمان عرضه عمومی و استفاده از آنها نمی‌توان به درستی و دقیق آنها را مورد بررسی قرار داد. با این اوصاف بهتر است تا اوایل ماه ژوئن منتظر بمانیم.

منبع : دنیای اقتصاد به نقل از www.pcworld.com و www.forbes.com

زکریا فتاحی 09-10-2009 09:45 PM

واقعا سایت توپیه.

اگه بدونین شبیه کی شدم (نیکلاس کیچ) . شوخی کردم.

ولی واقعا سایت توپیه.

فکر کنم سید کوروش هم به خاصر این عکس آواتورش رو (که عکس خودش بود) عوض کرد تا نکنه بیام و تو این سایت استفاده کنیم، بعد بفهمیم که شبیه ....... شده.

رزیتا 09-16-2009 11:10 PM

رتبه سایتها در موتورهای جستجوگر
 
هر بار كه شما توسط موتور جستجو، جستجويي انجام مي دهيد، عنكبوت(spider) آن به آهستگي از ميان ميليون ها فهرست حركت مي كند و آنهايي را كه بيشتر با مورد جستجوي شما ارتباط دارند را به تصوير مي كشد .حتي ميزان اين ارتباط نيز مورد ارزشيابي قرار مي گيرد تا مرتبط ترين سايتها در ابتدا به نمايش درآيند. البته موتور جستجو همواره درست عمل نمي كند. گاهي صفحات نا مربوط به چشم مي خورند و در مواردي براي يافتن آنچه مي خواهيد بايد جستجوي بيشتري انجام دهيد. موتور جستجو در يافتن اطلاعات عمل شگفت انگيزي انجام ميدهد.

براستي موتورهاي جستجو عمل ارزش گذاري ورتبه بندي را چگونه انجام ميدهند ؟ پاسخ از اين قرار است : توسط يك گروه دستورالعملها كه الگوريتم خوانده مي شوند. هر موتور جستجو از گروه متفاوتي از الگوريتم ها استفاده مي كند، اما همه آنها از اصول عمومي خاصي پيروي مي كنند. از آنجا كه موتورهاي جستجو قصد دارند توجه مشتريان را مجددا به خود جلب كنند، تلاششان بر اين است كه نتايج جستجوي مرتبط تري را پيدا کنند.

يك راه براي دستيابي به اين هدف توجه به مكان قرارگيري و تراكم عبارات جستجو يا كلمات كليدي در يك صفحه وب است. موتور جستجو بررسي مي كند که كلمات كليدي در بخش عنوان(Title)، بخش سرآغاز(Head)، در ابتداي پاراگراف يا در متن آمده اند. فرض بر اينست كه صفحات مرتبط با کلمات مورد جستجو، اين عبارات كليدي را برجسته تر و چشمگيرتر مورد استفاده قرار مي دهند. موتور جستجو تحليل مي كند كه كلمات كليدي در مقايسه با ديگر كلمات چند مرتبه به كار رفته اند.

Meta tag ها نيزممكن است در تشخيص ارتباط نقش داشته باشند، هرچند بسياري از موتورهاي جستجو آنها را در نظر نمي گيرند و آن دسته كه به آن اهميت مي دهند، ممكن است به صورتهاي متفاوتي آنها را ارزشگذاري كنند.

امكان دارد موتورهاي جستجو، وب سايتها را بعلت Spamming جريمه يا تحريم كنند. كلمات كليدي يكنواخت و خسته كننده ، كلمات كليدي تكراري در انتهاي يك صفحه و ارايه كردن صفحه اي كه به صورت اتوماتيك مخاطب را به صفحه اي با محتواي كاملا متفاوت هدايت كند، همه اشكالي از Spamming هستند.

در پايان، موتورهاي جستجو تحليل ارتباط (Link Analysis) را نيز در مشخص كردن ارزشيابي خود به كار مي برند. با تحليل اينكه صفحات چگونه به يكديگر متصل مي شوند يك موتور جستجو مي تواند مشخص كند که آن صفحه در چه مورد است و آيا آن صفحه به اندازه كافي مهم است كه در رتبه بندي به حساب آيد يا خير؟
مهم است كه به ياد داشته باشيم , با اينكه اكثر موتورهاي جستجو از اصول يكساني پيروي مي كنند، الگوريتم هاي متفاوتي دارند. به اين دليل است كه انجام يك جستجو در موتورهاي جستجوي مختلف، نتايج بسيار متفاوتي به بارمي آورد. براي مثال ممكن است برخي موتورهاي جستجو تعداد بيشتري از صفحات وب را فهرست کنند و برخي ديگر در فاصله هاي زماني کم تر اين کار را انجام دهند.

نتيجه نهايي اينكه هيچ دو موتور جستجويي فهرست يكساني از صفحات وب ندارند. بنابراين رتبه بندي در موتورهاي جستجو ممكن است بسيار متفاوت باشد. به همين دليل طراحان سايتهاي وب، معمولا يک موتور عمده را هدف قرار مي دهند و سعي مي کنند طراحي سايت را به گونه اي انجام دهند که براي آن موتور خاص، مناسب تر باشد و رتبه بهتري داشته باشد و البته با اين کار، به احتمال زياد، رتبه در برخي موتورهاي ديگر را از دست خواهد داد. حتي برخي از طراحان ممکن است موتورهاي منطقه اي و تخصصي خاصي را هدف قرار دهند و برايشان امتياز در موتورهاي عمومي اهميت نداشته باشد.

شما بايد قبل از اعمال هرگونه تنظيمات در سايت خود، اول به اين نکته که کدام موتور جستجو را هدف قرار مي دهيد توجه کنيد سپس سايت خود را براي بدست آوردن حداکثر امتياز در آن موتور بهينه کنيد.

رزیتا 09-16-2009 11:41 PM

مفاهيم پايه موتورهاي جستجو
 
قبل از شروع گفتگو درباره هر موضوعي نياز به آن است كه مفاهيم اوليه و اصطلاحات رايج در آن موضوع، بيان شود تا طرفين گفتگو راحت تر به منظور يکديگر پی ببرند. ما نيز در اين بخش، بعضي از مفاهيم و اصطلاحاتي را كه در صفحه های ديگر سايت از آنها به كرات استفاده مي شود، شــرح داده شده است.
Spider:
نرم افزاري است كه كار جمع آوري اطلاعات از صفحات مختلف را بر عهده دارد.
Crawler:
نرم افزاري كه مسير حركت اسپايدر را مشخص مي كند.
Directory :
فهرست. نوعي از موتورهاي جستجوگر كه پايگاه داده آن توسط ويراستاران تكميل مي گردد.
Keyword:
بــه واژه ها ي مهم (کليدی) هر صفحه گفته مي شود. اما غالبا" منظور كلماتي است كه دوست داريم با آنها رتبه هاي مناسبي كسب كنيم.
Keyword Density:
چگالي كلمه، منظور تعداد دفعات تكرار واژه های كليدي در مقايسه با ساير كلمات متن است.
Keyword Staffing:
تكرار يك كلمه به دفعات و پشت سر هم به منظور بالا بردن چگالی کلمه. اين کار تقلب محسوب می شود.
Tinny Text:
نوشتن متن با اندازه های بسیار کوچک و ریز به گونه ای که کلمات بسیاری بدین ترتیب در یک خط قرار داده می شود و به سختی نیز در صفحه قابل رویت هستند. نوشتن مطالب به اين صورت، تقلب محسوب است.
Invisible Text:
متن نامرئی. منظور استفاده از متن هاي همرنگ با پس زمينه صفحه است. متن هايی که از ديد کاربران مخفی می ماند. به عنوان مثال اگر پس زمينه يك صفحه سياه است، متن صفحه نيز با رنگ سياه نوشته می شود تا ديده نشود . اين نوع متن ها از مصاديق تقلب می باشند.
Spam:
تقلب، به تمام تلاش هايي گفته مي شود كه به كمك آن سعي مي شود از راه هاي غير معمول، رتبه هاي بالايي كسب شود. يا در اختيار گذاردن اطلاعاتي كه موتورهاي جستجوگر آنرا دوست ندارند (اطلاعات ناخواسته) مانند تكرار يك كلمه به دفعات و پشت سر هم، استفاده از متن هاي هم رنگ زمينه و ...
ALT tag:
محتواي اين شناسه، متني است كه يك عكس را توضيح مي دهد.
Deep Crawl:
به معناي اين است كه موتور جستجوگر، مي تواندصفحات زيادي از يك سايت را در پايگاه داده اش قرار دهد. موتور جستجوگر هرچه پايگاه داده اش بزرگتر باشد، صفحات بيشتري از يك سايت را می تواند در پايگاه داده اش قرار دهد. همه موتورهاي جستجوگر داراي اين ويژگي نمي باشند.
Robots.txt:
با اين فايل متني و ساده، ميزان دسترسي موتور جستجوگر به محتواي يك "سايت" را مي توان كنترل كرد.
META robots tag:
به كمك اين شناسه ميزان دسترسي موتور جستجوگر به محتواي يك "صفحه" را مي توان كنترل كرد.
Link:
پيوند. در واقع پلی بين دو صفحه است. به کمک آن می توان از يک صفحه به صفحه ديگر رفت.
Link Popularity
مقصود اين است که چه تعداد از سايت هاي ديگر به سايتي مشخص لينك کرده اند يا اينكه از چند سايت ديگر می توان به کمک پيوندها به سايتی مشخص رفت.
Link Reputation:
اشاره به اين دارد كه ساير سايتها درباره سايتي كه بدان لينك داده اند، چه مي گويند. عموما در اين موارد عنوان، متن لينك و كلمات اطراف لينك در سايت مقصد، بررسي مي شوند.
LearnFrequency:
بعضي از موتورهای جستجوگر مي توانند تشخيص دهند كه محتواي صفحات پس از چه مدتی تغيير مي كند (به روز می گردد) و بعد از آن مدت به آن صفحات مراجعه می کنند.
URL-UniformResource Locator:
به آدرس منحصر به فرد هر منبع موجود در اينترنت گفته می شود. اين منبع می تواند يک صفحه وب، يک فايل متنی و... باشد
StopWord:
به کلماتی گفته می شود که در کل اینترنت از آنها بسيار استفاده شده است. کلماتی نظير the, a, an, web, www, home page و ...
Metatags:
به كمك اين شناسه ها، اطلاعاتي از صفحه در اختيار بينندگان (موتور جستجوگر، مرورگرها و ...) قرار داده مي شود.
METAKeywords:
به كمك آن، كلمات کليدی صفحه در اختيار موتورهاي جستجوگر قرار داده می شود.
META Description
به كمك آن، توضيحي مختصر از صفحه در اختيار موتورهاي جستجوگر قرار داده می شود.
Stemming:
به معناي اين است كه موتور جستجوگر مي تواند صورت هاي مختلف يک كلمه را جستجو كند. به عنوان مثال با جستجوي swim موتور جستجوگر به دنبال swimmer ، swimming نيز مي گردد. همه موتورهاي جستجوگر داراي اين ويژگي نمي باشند.
Rank:
رتبه يك صفحه در نتايج جستجو است زماني كه جستجويي مرتبط با محتواي آن صفحه انجام مي شود.
Spamdexing:
مختصر شده spamindexing است. منظور طراحی و معرفي صفحاتي به موتورهاي جستجوگر است كه كيفيت نتايج جستجو را پايين مي آورند. موتورهای جستجوگر تمايل دارند که كاربران بارها و بارها به آنها مراجعه كنند و كيفيت بالاي نتايج مي تواند اين روند را تضمين كند. لذا آنها هركدام به نوعي سعي در تشخيص صفحاتي دارند كه كيفيت نتايج جستجو را پايين مي آورد. برخی از اين موارد عبارتند از: ساختن صفحاتي كه همگي داراي محتواي يكساني اند، تكرار يك كلمه بيش از حد و ...
Comment:
توضيحاتي است كه طراحان سايت در لا به لاي كدهاي HTML مي گنجانند تا برای فهميدن وظيفه بخش هاي متفاوت كدهای HTML در مراجعات آتی نيازی به صرف وقت بسيار نداشته باشند.

تاري 12-08-2009 09:04 AM

چطور موتورهاي جستجو كار ميكنند
 

وقتی جستجویی در یك موتور جستجوگر انجام و نتایج جستجو ارایه می‌شود، كاربران در واقع نتیجه كار بخش‌های متفاوت موتور جستجوگر را می‌بینند.

موتور جستجوگر قبلاً پایگاه داده‌اش را آماده كرده است و این گونه نیست كه درست در همان لحظه‌ی جستجو، تمام وب را بگردد.

بسیاری از خود می‌پرسند كه چگونه ممكن است گوگل در كمتر از یك ثانیه تمام سایت‌های وب را بگردد و میلیون‌ها صفحه را در نتایج جستجوی خود ارایه كند؟


گوگل و هیچ موتور جستجوی دیگری توانایی انجام این كار را ندارند. همه آنها در زمان پاسخ‌گویی به جستجوهای كاربران، تنها در پایگاه داده‌ای كه در اختیار دارند به جستجو می‌پردازند و نه در وب! موتور جستجوگر به كمك بخش‌های متفاوت خود، اطلاعات مورد نیاز را قبلاً جمع‌آوری، تجزیه و تحلیل می‌كند، آنرا در پایگاه داده‌اش ذخیره می‌نماید و به هنگام جستجوی كاربر تنها در همین پایگاه داده می‌گردد. بخش‌های مجزای یك موتور جستجوگر عبارتند از:
Spider یا عنكبوت
Crawler یا خزنده
Indexer یا بایگانی كننده
Database یا پایگاه داده
Ranker یا سیستم رتبه‌بندی

الف: Spider (عنكبوت)
اسپایدر یا روبوت (Robot) نرم افزاری است كه كار جمع‌آوری اطلاعات مورد نیاز یك موتور جستجو را بر عهده دارد. اسپایدر به صفحات مختلف سر می‌زند، محتوای آنها را می‌خواند، لینك‌ها را دنبال می‌كند، اطلاعات مورد نیاز را جمع‌آوری می‌كند و آنرا در اختیار سایر بخش‌های موتور جستجوگر قرار می‌دهد. كار یك اسپایدر، بسیار شبیه كار كاربران وب است. همانطور كه كاربران، صفحات مختلف را بازدید می‌كنند، اسپایدر هم درست این كار را انجام می‌دهد با این تفاوت كه اسپایدر كدهای HTML صفحات را می‌بیند اما كاربران نتیجه حاصل از كنار هم قرار گرفتن این كدها را.

اسپایدر، به هنگام مشاهده صفحات، بر روی سرورها رد پا برجای می‌گذارد. شما اگر اجازه دسترسی به آمار دید و بازدیدهای صورت گرفته از یك سایت و اتفاقات انجام شده در آن را داشته باشید، می‌توانید مشخص كنید كه اسپایدر كدام یك از موتورهای جستجوگر صفحات سایت را مورد بازدید قرار داده است. یكی از فعالیت‌های اصلی كه در SEM انجام می‌شود تحلیل آمار همین دید و بازدیدها است.

اسپایدرها كاربردهای دیگری نیز دارند، به عنوان مثال عده‌ای از آنها به سایت‌های مختلف مراجعه می‌كنند و فقط به بررسی فعال بودن لینك‌های آنها می‌پردازند و یا به دنبال آدرس ایمیل (E-mail) می‌گردند.

ب: Crawler (خزنده)
كراولر، نرم‌افزاری است كه به عنوان یك فرمانده برای اسپایدر عمل می‌كند. كراولر مشخص می‌كند كه اسپایدر كدام صفحات را مورد بازدید قرار دهد. در واقع كراولر تصمیم می‌گیرد كه كدام یك از لینك‌های صفحه‌ای كه اسپایدر در حال حاضر در آن قرار دارد، دنبال شود. ممكن است همه آنها را دنبال كند، بعضی‌ها را دنبال كند و یا هیچ كدام را دنبال نكند.

كراولر، ممكن است قبلاً برنامه‌ریزی شده باشد كه آدرس‌های خاصی را طبق برنامه در اختیار اسپایدر قرار دهد تا از آنها دیدن كند. دنبال كردن لینك‌های یك صفحه به این بستگی دارد كه موتور جستجو چه حجمی از اطلاعات یك سایت را می‌تواند (یا می‌خواهد) در پایگاه داده‌اش ذخیره كند. همچنین ممكن است اجازه دسترسی به بعضی از صفحات به موتورهای جستجوگر داده نشده باشد.

شما به عنوان دارنده سایت، همان طور كه دوست دارید موتورهای جستجو اطلاعات سایت شما را با خود ببرند، می‌توانید آنها را از بعضی صفحات سایت‌تان دور كنید و اجازه دسترسی به محتوای آن صفحات را به آنها ندهید. موتور جستجو اگر مودب باشد قبل از ورود به هر سایتی ابتدا قوانین دسترسی به محتوای سایت را (در صورت وجود) در فایلی خاص بررسی می‌كند و از حقوق دسترسی خود اطلاع می‌یابد. تنظیم میزان دسترسی موتورهای جستجو به محتوای یك سایت توسط پروتكل Robots انجام می‌شود. به عمل كراولر، خزش (Crawling) می‌گویند

GolBarg 01-22-2010 07:03 PM

نحوه کار موتورهای جستجو(اسپایدر)
 
نحوه کار موتورهای جستجو(اسپایدر)

موتورها جستجو اینترنت ، سایت ها به خصوص در اینترنت است و طور طراح شده که به افراد کمک می کنند تا اطلاعات مورد نیازشان را که در سایت ها دیگر ذخیره شده است ، بیابند. به طور حتم شما هم بارها ، زمان که به یک مقاله ای نیاز دارید یا حتی برا یافتن معنی اصطلاح ، پشت رایانه نشسته اید با استفاده از اینترنت آن را در مدت زمان کوتاه پیدا کرده اید ، اما آیا تا به حال فکر کرده اید چگونه در عرض چند ثانیه توسط یک موتور جستجو انبوه از اطلاعات در اختیار شما قرار می گیرد؟

صدها میلیون صفحه در اینترنت در دسترس است و اطلاعات را با تنوع شگفت انگیز از موضوعات در اختیار کاربر ارائه می دهند. زمان که شما می خواهید درباره یک موضوع خاص اطلاعات کسب کنید ، چگونه می دانید که چه صفحات را باید بخوانید؟

» شیوه عملکرد موتورها جستجو
تفاوت های در شیوه عملکرد موتورها جستجو مختلف وجود دارد ، اما همه آن ها ۳ وظیفه اصلی را انجام می دهند:

۱) در اینترنت ، یا بخش ها برگزیده ها از اینترنت ، براساس کلمات مهم جستجو را انجام می دهند.

۲) یک فهرست از کلمات و مکان هایی که پیداکرده اند تهیه می کنند.

۳) این امکان را برا کاربران فراهم می کنند تا کلمات یا مجموعه ا از کلمات مورد نظر خود را که در فهرست یافت می شود جستجو کنند.


» موتورها جستجو اولیه
موتورها جستجو اولیه یک فهرست شامل تنها چند صدهزار صفحه و فایل نگهدار می کردند و در روز شاید یک یا ۲هزار بازدیدکننده داشتند. امروزه یک موتور جستجو خوب ، صدها میلیون صفحه را فهرست می کند و در روز پاسخگو ده ها میلیون جستجو کننده است. حالا باید ببینیم چگونه این مسئولیت مهم انجام می شود و چگونه موتورها جستجو اینترنت ، بخش ها مختلف را به کار می گیرند تا ما بتوانیم اطلاعات مورد نیاز خود را در اینترنت بیابیم. در جستجو میان صدها میلیون صفحه قبل از این که یک موتور جستجوگر بتواند به شما بگوید که یک فایل در کجا قرار دارد ، باید آن فایل پیدا شود.

» روبات عنکبوتی
یک موتور جستجوگر برای یافتن اطلاعات از میان صدها میلیون صفحه که در شبکه اینترنت وجود دارد ، روبات نرم افزار خاص به نام اسپایدر(عنکبوت) را به کار می گیرد تا فهرستی از کلمات را که در سایت ها اینترنت یافت می شود ایجاد کند. فرآیند که یک اسپایدر فهرست خود را ایجاد می کند ، Web crawling نامیده می شود. برای ایجاد و نگهداری یک فهرست مفید و مناسب از کلمات ، یک اسپایدر موتور جستجوگر باید صفحات بسیار زیاد را بررسی کند. حال سوالی که این جا پیش می آید این است که چگونه هر اسپایدر مسیر خود را در اینترنت آغاز می کند؟ در پاسخ باید گفت که به طور معمول نقطه شروع ، فهرستی از صفحات است که توسط سرورها زیاد استفاده می شود و هم چنین صفحات که معروف تر است.


» طرز عملکرد
اسپایدر از یک سایت عموم شروع می شود و کلمات موجود در صفحات آن را فهرست می کند و هر لینک را که در آن سایت یافت می شود دنبال می کند.
به این طریق سیستم جستجوگر به سرعت شروع به حرکت می کند و در بخش های که بیشتر از همه مورد استفاده قرار می گیرد ، حرکت می کند.برای نمونه گوگل به عنوان یک موتور جستجوگر علم آغاز به کار کرد.
سرج برین و لورنس پیج از مدیران گوگل بیان کردند که اسپایدرها سیستم آن ها با چه سرعت می تواند کار کند. آن ها سیستم اولیه خود را به گونه ای ساختند که از چندین اسپایدر استفاده کند ، که به طور معمول ۳ تا در یک زمان بود.در گوگل هر اسپایدر می توانست به حدود ۳۰۰ صفحه شبکه که در یک زمان باز بود اتصال برقرار کند. در بهترین عملکرد خود ، با استفاده از ۴ اسپایدر ، این سیستم می توانست در هر ثانیه به ۱۰۰ صفحه متصل باشد. زمان که اسپایدر گوگل یک صفحه HTML را مشاهده می کرد ، به ۲ نکته توجه می کرد:
کلمات درون صفحه ، که در کدام مکان کلمات پیدا شده است
و کلمات که در عنوان اصل یا عناوین فرع و یا سایر موقعیت های که دارا اهمیت نسب است ،

قرار دارد که برای جستجو بعد کاربر مورد توجه خاص قرار می گرفت.اسپایدر گوگل هر کلمه معن داری در صفحه را فهرست و از کلماتthe ، an و a صرف نظر می کرد. دیگر اسپایدرها از روش ها متفاوت استفاده می کردند. در کل تمام این روش ها سعی می کند تا عملکرد اسپایدر را سریع تر کند و به کاربران اجازه بدهد تا با کارای بهتر جستجو کنند.به عنوان مثال ، بعض اسپایدرها کلمات را که در عنوان ها ، عنوان ها فرع و لینک ها وجود دارد یا کلمات که بارها در صفحه تکرار می شود فهرست می کنند؛ سایت Lycos از این روش استفاده می کند.

سایر سیستم ها ، از قبیل AltaVista ، هر کلمه در صفحه ، شامل the ، an و a و سایر کلمات را که بی اهمیت است هم فهرست می کنند.


» ایجاد فهرست
زمان که اسپایدرها وظیفه یافتن اطلاعات از صفحات اینترنت را به اتمام رساندند موتور جستجو باید این اطلاعات را به شکل که مفید است ، ذخیره کند (البته باید در نظر داشت که این وظیفه هرگز تمام نمی شود ، خاصیت تغییر دائم اینترنت به این معنی است که اسپایدرها همیشه در حال حرکت و جستجو هستند).

۲ مولفه کلید برای در دسترس قرار دادن اطلاعات جمع آوری شده برای کاربران وجود دارد: اطلاعات ذخیره شده با داده ها و روش که توسط آن اطلاعات فهرست می شود. در آسان ترین حالت ، موتور جستجوگر می تواند تنها کلمه و URL را ذخیره کند. در حقیقت ، این روش برای موتور با کاربرد محدود است ، زیرا در این حالت راه وجود ندارد برای این که تعیین کند آیا کلمه در بخش مهم یا بخش بی اهمیت از صفحه استفاده شده است ، آیا کلمه تنها یک بار یا چندین مرتبه تکرار شده است یا صفحه لینک های به صفحات دیگر دارد که شامل آن کلمه است. به عبارت دیگر راه برا ایجاد فهرستی رتبه بندی شده که تلاش می کند تا مفیدترین و بهترین صفحات را در بالا فهرست نتایج جستجو قرار بدهد ، وجود ندارد.

» حرکت به سوی کارایی بهتر
برای به دست آوردن نتایج بهتر ، بیشتر موتورها جستجو اطلاعات بیشتر علاوه بر کلمه و URL ذخیره می کنند. موتور ممکن است تعداد دفعات را که کلمه در صفحه تکرار شده است ذخیره کند ، یا ممکن است مقدار را به هر ورود اختصاص بدهد و زمان که کلمات در عناوین ، عنوان ها فرع و لینک ها ظاهر می شود ارزش اختصاص یافته به آن ها بیشتر می شود.

هر موتور جستجوگر تجار ، فرمول متفاوت برای ارزش گذار کلمات فهرست خود دارد. این مسئله یک از دلایل است که موجب می شود جستجو یک کلمه در موتورها جستجوگر متفاوت ، فهرست ها متفاوت را ارائه بدهد و صفحات با ترتیب ها متفاوت ارائه شود. داده ها برای صرفه جوی در فضا ذخیره ساز رمزگذار می شود. به عنوان مثال در صفحه گوگل اطلاعات از قبیل این که آیا کلمه با حروف بزرگ بوده است ، اندازه فونت آن ، موقعیت کلمه و سایر اطلاعات که به رتبه بند آن کمک می کند به صورت بیت و بایت ذخیره می کند ، در نتیجه میزان بسیار زیاد از داده ها می تواند به شکل بسیار فشرده ای ذخیره شود. بعد از این که اطلاعات فشرده شد ، برا فهرست شدن آماده است. هدف از ایجاد یک فهرست این است که باعث شود تا بتوانیم اطلاعات را با سریع ترین حالت ممکن پیدا کنیم.


» ایجاد فهرست وب سایت ها
به طور کلی ، تنها چند راه برای ایجاد فهرست وجود دارد ، اما یک از مهم ترین و موثرترین روش ها ، ایجاد جدول hash است. در این روش فرمول به کار می رود تا به هر کلمه یک ارزش عدد اختصاص دهد. پرسش و جستجو انجام شده در این روش توسط کاربر خیل ساده است ، حتی یک کلمه. برای پرسش ها پیچیده تر لازم است تا از عملگرها بولین (AND ORNOT NEAR) استفاده کرد تا بتوان شرایط جستجو را گسترش داد.

به طور خلاصه عملکرد یک موتور جستجو به این صورت است: نرم افزار اسپایدر با جستجو در سایت ها مختلف فهرستی از کلمات و مکانی که قرار دارد فراهم می کند ، سپس بر اساس سیستم ارزش گذار خود فهرست رتبه بند شده تهیه ، داده ها را رمزگذار و سرانجام اطلاعات را برا دسترس کاربران ذخیره می کند.در جستجوهای که از عملگرها بولین استفاده می شود ، جستجوها لفظ است.

موتور به طور دقیق همان کلمات یا عبارت را که وارد شده است جستجو می کند. زمان که کلمات ورود دارا چندین معنی است ، جستجو صحیح آن ها مشکل است. در این حالت ، اگر برای شما تنها یک از معانی آن کلمه مهم باشد ، شما نمی خواهید سایر صفحات را که شامل معانی دیگر کلمه است ببینید ، می توانید یک جستجو لفظ ایجاد کنید که تا حدود معنی ها ناخواسته را حذف کند ، اما بهتر این بود که خود موتور جستجو می توانست این کار را انجام بدهد. یک از حوزه ها تحقیق در موتورها جستجوگر ، جستجو براساس مفهوم است. در یک موتور جستجوگر مبتنی بر مفهوم ، اطلاعات ذخیره شده برا هر صفحه ، بیشتر است.

هنوز بسیار از گروه ها تلاش می کنند تا نتایج و عملکرد این نوع از موتورها جستجو را افزایش دهند. قلمرو دیگر که پژوهش گران درباره آن تلاش می کنند ، پرسش ها به زبان طبیعی نامیده می شود.

رزیتا 03-17-2010 01:42 AM

فایرفاکس یا اکسپلورر؟
 
فایرفاکس یا اکسپلورر؟


بسیاری از کارشناسان مرورگر موزیلا فایرفاکس را بسیار برتر از مرورگر قدیمی و معروف اینترنت اکسپلورر می دانند.

http://img.tebyan.net/big/1388/12/30...4911336231.jpg


این کارشناسان 20 دلیل گویا و روشن را برای این انتخاب خود ذکر می کنند. در یکی از سایتهای Forum نیز به بحث در این زمینه پرداختیم که افراد دلایل گوناگونی را عنوان کردند در اینجا 20 دلیل عنوان شده برای استفاده از فایرفاکس به جای اینترنت اکسپلورر را برای شما مطرح می نماییم

1. امنیت :

یكی از مهمترین نكات بارز این مرورگر امنیت بسیار بالاتر فایر فاكس نسبت به IE می باشد . بدین معنی كه با استفاده از فایر فاكس شما بسیار كمتر مورد حملات ویروسی قرار می گیرید .

2. سرعت :

دومین گزینه برتری FF ( فایرفاكس ) نسبت به IE سرعت بالاتر این مرورگر می باشد . بدین معنی كه صفحات اینترنتی بسیار سریعتر در این مرورگر بارگذاری می شوند و برای اكثر ما كه از اینترنت هایی با سرعت پایین استفاده می كنیم مزیت بسیار جالبی می باشد .

http://img.tebyan.net/big/1388/12/98...3111734354.jpg

3. امكان :

Tab Browser: در فایرفاكس پنجره های جدید در یك تب (در داخل همان پنجره ) بازگشایی می شوند و این عمل باعث می شود كه اولا محیط Taskbar ویندوز شلوغ نشود و دوم دسترسی سریعتر به سایتهای موجود در تب می باشد ، البته به تازگی IE هم در نسخه ۷ از مرورگر خود كه البته هنوز بتا است ، این قابلیت را اضافه كرده است … ولی این كجا و آن كجا !





4. دسترسی همیشگی به موتورهای جستجو :

در FF ( همون فایر فاكس دیگه … ) شما به راحتی می توانید در موتورهای جستجو معروف از قبیل گوگل ، یاهو ، آمازون ، ای بی ، انسور و دیگر موتورهای جستجو ، به جستجو بپردازید بدون اینكه نیازی به تایپ آدرس موتور جستجو باشد . امكانی كه در IE وجود ندارد .

5. امكان Import از مرورگر های دیگر :

فایر فاكس همچنین می تواند اطلاعاتی از قبیل : History و كوكی ها و پسوردها و اطلاعاتی كه در فرمها وارد كرده اید (در مرورگر های دیگر ) را Import كند .

6. ذخیره سریع صفحات لود شده به طور كامل :

در IE، حتما برایتان پیش آمده كه مثلا وارد سایتی شده اید و وقتی قصد ذخیره آن صفحه را دارید ، یا باید خیلی منتظر شوید تا صفحه ذخیره شود و یا اینكه پیغامی را خواهید دید كه مبنی بر این است كه شما نمی توانید این صفحه را ذخیره كنید . و دومین مشكل هم عدم ذخیره كامل سایتها می باشد بدین معنی كه مثلا اگر در صفحه ای ، یك یا چند فایل فلش موجود باشد ، پس از ذخیره صفحه مشاهده خواهید كرد كه فلشها ذخیره نشده اند و در اینگونه موارد می بایستی از نرم افزارهای جانبی برای اینكار استفاده كنید …… اما در مقابل مرورگر فایر فاكس اولا تمامی صفحات را ذخیره میكند ( آن هم به طور كامل یعنی همراه با تمامی تصاویر و حتی فلشهای به كار رفته ) و ثانیاً اگر صفحه به طور كامل لود شده باشد ، بدون لحظه ای تامل صفحه ذخیره می شود و دیگر خبری از یك پنجره ذخیره كه باید مدتی برای آن در اینترنت اكسپلولر منتظر می شدید نیست !


http://img.tebyan.net/big/1388/12/21...1722104348.jpg

7. افزایش توانایی های برنامه با نصب پلاگینها :

از دیگر مزیتهایی كه FF نسبت به IE دارد امكان نصب پلاگینها می باشد . بدین معنی كه شما می توانید با نصب پلاگینها قابلیتهای فایرفاكس را افزایش دهید . كه بعدا حتما در مورد پلاگینهای آن صحبت خواهیم كرد .

8. دارا بودن فایل منیجر :

از دیگر مزیتهای FF نسبت به IE دارا بودن فایل منیجر می باشد كه شما را در دانلود هرچه بهتر و سریعتر فایلها یاری می كند .


9. استفاده از كلیدهای میانبر بیشتر :

یكی از مواردی كه كاربران حرفه ای بسیار از آن استفاده می كنند كلیدهای میانبر می باشد كه كار با اینترنت را سریعتر و لذت بخش تر می كند و البته در فایرفاكس این كلیدها بسیار بیشتر می باشند . از جمله : شما در IE مثلا برای تایپ سایتی هایی كه دارای دامین دات كام هستند كافی بود نام سایت را نوشته و كلیدهای تركیبی Ctrl+Enter را بزنید ولی برای سایتهای دات نت و همچنین دات ارگ فكری نشده است ولی در FF می توانید برای سایتهای دات نت كلیدهای تركیبی Shift+Enter و برای سایتهای دات ارگ كلیدهای Ctrl+Shift+Enter را بزنید ، و یا می توانید برای ذخیره یك صفحه كلیدهای Ctrl+S را بزنید و یا برای دسترسی به سرس صفحه نمایش داده شده كلیدهای Ctrl+U را بزنید و بسیاری دیگر از كلیدهای میانبر دیگر . لازم به ذكر است تمامی كلیدهای میانبر در IE نیز در فایرفاكس انجام پذیرند .
ادامه دارد...
برگرفته از : Forum Iranian

civilar 03-17-2010 01:49 AM

اما به نظر من گوگل کروم یه چیز دیگه است .

Younes 03-17-2010 03:52 AM

منم صد در صد میگم ایر فاکس. البته اپرا هم بعضا مزایایی نسبت به فایرفاکس داره که نمیشه نادیده اش گرفت.

Setare 03-17-2010 05:48 AM

من خودم همیشه از فایر فاکس استفاده میکنم!! اما شنیدم که گوگل کروم هم عالیه و حتی سرعت لود شدنش از فایر فاکس هم بیشتره و یه خوبیه دیگه هم که داره اینه که رم کمتری هم استفاده میکنه!اما انقدر به فایر فاکس عادت کردم نمی تونم گولگل کروم استفاده کنم!!;)

Younes 03-17-2010 06:18 AM

من رو لپ تاپم گوگل کروم دارم. خوبه ولی خیلی لخته. هیچ ابزاری نداره. فایر فاکس یه چیز دیگه است. سرعت لود شدن رو نمیدونم چون از اینترنت پر سرعت استفاده میکنم ملموس نیست. اینو میدونم که اپرا تو سرعت برقراری کانکشن و فرستادن دستور خیلی قوی تر از فایر فاکسه. تو بازی های استراتژیک از اپرا استفاده می کنن. چون میتونی مثلا 4 تا حمله تو 4 صفحه مختلف رو تو کمتر از یه ثانیه انجام بدی.

Omid7 04-10-2010 10:49 PM

ادبيات موتورهاي جستجو چيست؟
 
افزايش استفاده از موتورهاي جستجو و تعدد آنهاباعث شده تا كاربران با آگاهي وشناخت كامل به سراغ آنها رفته و با مفاهيم و اصول اوليه آنها آشنا شوند.
قصد داريم شما را با برخي از اصطلاحات موتورهاي جستجو آشنا كنيم:

الگوريتم (Algorithm): مجموعه‌اي از قوانين كه يك موتور جستجو براي مرتب و منظم نمودن اسامي و نامها در فهرست خود از آنها استفاده مي‌كند تا بتواند به يك درخواست مشخص پاسخگو باشد.

لينك‌هاي پشت‌صحنه (Back Links): تمام لينك‌هايي كه به يك صفحه اينترنتي خاص شاره مي‌كنند. همچنين به آن لينك‌هاي هم‌مرز ( Inbound Links) نيز گفته مي‌شود.

نرخ كليك‌شدن (Click Through Rate): درصد كساني كه يك لينك را مشاهده مي‌كنند در مقايسه با تعداد دفعاتي كه يك لينك در صفحه نتايج( Result Page) نمايش داده مي‌شود.

پنهان‌كاري (Cloaking): در صنعت موتورهاي جستجو، به عملياتي گفته مي‌شود كه در آن موتور جستجو، محتوياتي از يك آدرس اينترنتي (URL) را ذخيره مي‌كند كه اين محتويات با آنچه كه جستجوگر مشاهده مي‌كند، متفاوت است.

هزينه هر كليك (Cost Per Click): سيستمي كه طبق آن افراد و شركتهاي تبليغات‌كننده مبلغي را به ازاء هر كليك روي لينكي كه كاربران را به سايت او هدايت مي‌كند، مي‌پردازد. به اين سيستم CPC يا PPC نيز گفته مي‌شود.

كاوشگر(Crawler): اجزايي از موتور جستجو كه به صورت اتوماتيك در وب كاوش كرده و اقدام به جمع‌آوري اسامي مي‌نمايد را گويند. اين جزء موتورهاي جستجو كه به نام عنكبوت( Spider) يا ربات نيز ناميده مي‌شود، لينك‌هاي مختلف را براي رسيدن به صفحات اينترنتي تعقيب مي‌كند تا به هدف برسد.

دايركتوري‌ها(Directories): نوعي از موتورهاي جستجو است كه در آنها اطلاعات و اسامي جمع‌آوري شده با كوشش افراد بوده و از سيستم كاوش اتوماتيك در وب براي يافتن استفاده نمي‌شود. در اين سيستم ليست اسامي و آدرسها توسط تعدادي از اپراتورها ذخيره مي‌گردد و در هنگام جستجو از اين پايگاه داده‌هاي تهيه شده براي رسيدن به مقصد استفاده مي‌شود.

صفحه درگاه (Doorway Page): صفحه‌اي مجازي است، ساخته شده از تعدادي كلمات كليدي و لينك‌هاي ديگر كه ترافيك موتورهاي جستجو را تعديل مي‌كند.

فهرست (Index): مجموعه‌اي از اطلاعاتي كه يك موتور جستجو دارد و جستجوگران مي‌توانند از آنها استفاده كنند.

صفحه فرود(Landing Page): صفحه‌اي كه نهايتا جستجوگر پس از كليك كردن بر روي ليست نتايج به آن مي‌رسد را صفحه فرود گويند.

متن لينك(Link Text): متني كه شامل يك آدرس اينترنتي يا لينك مي‌باشد.

موتورهاي جستجوي متا (Meta Search Engine): موتورهاي جستجويي كه به جاي كاوش در وب و يافتن درخواست‌هاي جستجوگران، از فهرست وليست‌هاي دو يا چند موتور جستجوي ديگر استفاده مي‌نمايند.

برچسب‌هاي متا (Meta Tags): برچسب‌ها يا اطلاعاتي هستند كه در صفحات اينترنتي قرار داده مي‌شوند به منظور انتقال اطلاعات به كاوشگر (Crawler) موتورهاي جستجو، نمايشگرهاي اينترنت و برخي نرم‌افزارهاي كاربردي ديگر مي‌باشد و قابل رويت توسط جستجوگران نيست.

ليست‌هاي پرداخت‌شده (Paid Listings): ليست‌هايي كه توسط موتورهاي جستجو به تبليغات‌كننده‌ها فروخته مي‌شود.

لينك دوطرفه (Reciprocal Link): به يك لينك تبادلي بين دو وب سايت گويند.

صفحه نتايج (Results Page): پس از ورود يك درخواست توسط جستجوگر در موتورجستجو، صفحه‌اي كه نتايج در آن نمايش داده مي‌شود را گويند كه گاهي به نام SERPs نيز ناميده مي‌شود كه مخفف search Engine Result Pages مي‌باشد.

Robots.txt: فايلي كه صفحات اينترنتي را از ليست شدن و فهرست‌گيري توسط موتورهاي جستجو محفوظ مي‌دارد.

بازگشت سرمايه (ROI): درصد سود يا بازده برگشتي از يك فعاليت خاص را گويند و مخفف Return on Investment ‌مي‌باشد.

بازاريابي موتورهاي جستجو (Search Engine Marketting): عمليات بازاريابي يك وب‌سايت از طريق يك موتورجستجو.

اصطلاح جستجو (Search Terms): كلمه يا كلماتي كه يك جستجوگر در قسمت جستجوي يك موتور جستجو وارد مي‌كند. به آن كلمات كليدي، اصطلاح درخواست شده يا Query نيز گفته مي‌شود.

فرمانبرداري (Submission): اجازه ورود URL‌ وارد شده توسط جستجوگر به فهرست و ليست موتور جستجو را گويند.


اکنون ساعت 07:14 PM برپایه ساعت جهانی (GMT - گرینویچ) +3.5 می باشد.

Powered by vBulletin® Version 3.8.4 Copyright , Jelsoft Enterprices مدیریت توسط کورش نعلینی
استفاده از مطالب پی سی سیتی بدون ذکر منبع هم پیگرد قانونی ندارد!! (این دیگه به انصاف خودتونه !!)
(اگر مطلبی از شما در سایت ما بدون ذکر نامتان استفاده شده مارا خبر کنید تا آنرا اصلاح کنیم)