“>
معماری اطلاعات در وبسایتها
در موقع طراحی وبسایتها سؤال این است که با چند کلیک کاربر میتواند به اطلاعات مورد نیازش دسترسی پیدا کند. معماری اطلاعات به چگونگی حرکت کاربران در فضای اطلاعاتی میپردازد.
معماری اطلاعات در مورد وبسایت، مسائل زیر را پوشش میدهد:
-
- در یک سایت چند سطح باید تعبیه شود.
-
- چند انتخاب در هر سطح باید وجود داشته باشد.
-
- چه تعداد کلیک نیاز است تا از صفحه اصلی به صفحه حاوی مطالب مورد نظر برسیم.
- مشخص کردن تعداد انتخابها در هر سطح (فعالیتی نظیر تنظیم رفبرگه البته نه به صورت الفبایی)
بهترین ساختار برای طراحی وبسایت، سلسله مراتبی است. شیوه های مختلفی برای معماری اطلاعات وجود دارد. در معماری وبسایت، فهرستها را به نحوی طراحی میکنیم که خاصیت به یادسپاری داشتهباشند.
ساختار ردهبندی نمونهای از شیوه های معماری هستند که مهمترین آن ها به قرار زیر هستند:
-
- سلسله مراتب گسترده و کم عمق
- سلسله مراتب عمیق و باریک (علایی آرانی، ۱۳۸۶)
ساختار «گسترده و کمعمق» به این صورت است که گزینههای بسیاری وجود دارد تا کاربر از میان آن ها دست به انتخاب بزند، اما مطالب در سطوح کمی ارائه میگردد. در مقابل، ساختار «عمیق و باریک» ساختاری است که گزینههای محدودی را در هر صفحه در اختیار کاربر قرار میدهد ، اما لایههای عمیقی از اطلاعات ارائه میگردد. (روزنفلد و مورویل[۲۱]، نقل در نیدرست، ۲۰۰۷)
روزنفلد و مورویل معتقدند: «در ساختار گسترده، بایستی نسبت به توانایی افراد در مرور چشمی اطلاعات و محدودیتهای ادراکی ذهن بشر توجه داشت». همچنین نسبت به بازیابی بیش از حد اطلاعات از طریق ارائه گزینههای زیاد در یک صفحه، گروهبندی و ساختاربندی اطلاعات در سطح صفحه و تقسیمبندیهای موضوعی، هشدار میدهند.
در ساختار عمیق، حتی باید بیشتر احتیاط کرد. اگر کاربران ناچار به پویش بیش از دو یا سه لایه اطلاعاتی باشند، ممکن است به سادگی مأیوس شده، سایت شما را ترک کنند .نتایج یک پژوهش انجام شده در میکروسافت نشان میدهد که وجود تعادل بین عمق و وسعت، بهترین نتیجه را به دنبال خواهدداشت .ساختار خوب موجب میشود که وبسایت قابل درکتر شود. (همان)
تعریف موتور جستجو
موتورهای کاوش پایگاههای اطلاعاتی قابل جستجویی هستند که از طریق برنامه هایی رایانهای به شناسایی و نمایه سازی خودکار صفحات وب میپردازند (کوشا،۱۳۸۲). کلمه خودکار در این تعریف توجه ما را به این نکته جلب میکند که موتورهای کاوش برای تجزیه و تحلیل کردن [۲۲]صفحات وب به نیروی انسانی وابسته نیستند.
از طرف دیگر موتورهای کاوش الگوریتمهای متفاوتی را برای شناسایی، نمایه سازی و بازیابی اطلاعات وب به کار میگیرند و اغلب به دلایل تجاری، الگوریتمهای بازیابی و رتبه بندی نتایج کاوش خود را فاش نمیکنند (کوشا،۱۳۸۲). اگر چه توافقی بر سر مؤثر بودن یک عامل نسبت به سایر عوامل وجود ندارد .به طور مثال گوگل بیش از ۱۰۰۰ عامل را در نظام رتبه بندی نتایج خود مد نظر قرار داده اما به دلیل ماهیت تجاری و حفظ یکپارچگی نتایج کاوش، از ذکر جزئیات خودداری میکند (شریف،۱۳۸۶).
طی تحقیق که برین و پیچ[۲۳] در سال ۱۹۹۸ به تحلیل دقیق آناتومی گوگل پرداختند به این نتیجه رسیدند که گوگل علاوه بر نمایه سازی کلیدواژهای کلمات متن، بر تحلیل پیوندها نیز تأکید دارد.
با وجود مخفی نگه داشتن الگوریتم موتورهای کاوش، عوامل زیر را به عنوان عوامل مؤثر بر رتبه بندی نتایج توسط موتورهای کاوش ذکر کردهاند.
۱٫ساختار ابرداده ای[۲۴] : چنانچه محتوای صفحه به درستی در فیلدهای ابرداده ای بازنمود شوند و موتورهای کاوش از این فیلدهای ابر دادهای در رتبه بندی و بازیابی نتایج خود بهره ببرند، مانعیت افزایش پیدا میکند به طوری که نتایج بازیابی به سطحی قابل مدیریت کاهش مییابد. بعلاوه رتبه بندی صفحات صحت بیشتری خواهد داشت.
۲٫ محتوای صفحه[۲۵]
۳٫وضعیت ارجاعات فرامتنی[۲۶] (شریف،۱۳۸۶)
فن آوری موتورهای جستجو
وقتی جستجویی در یک موتور جستجوگر انجام و نتایج جستجو ارائه میشود، کاربران در واقع نتیجه کار بخشهای متفاوت موتور جستجوگر را میبینند. موتور جستجو اطلاعات را از پایگاه اطلاعاتی خود مورد جستجو و بازیابی قرار میدهد و اینطور نیست که همان لحظه اطلاعات را از اینترنت به دست آورد، بلکه از قبل اطلاعات را از اینترنت گرفته و در پایگاه خود ذخیره میکند.
در ابتدا مرحله گردآوری اطلاعات صفحات وب را داریم از طریق روباتهای اطلاعاتی میتوانیم به جستجوی مستمر و مداوم اطلاعات در صفحات وب بپردازیم. از جمله روباتهای اینترنت میتوانیم به اسپایدرها[۲۷] و روبات خزنده[۲۸] اشاره کنیم.
اسپایدر، اینترنت را برای اسناد جدید وب مورد جستجو قرار میدهد و آدرسهای آن ها و اطلاعات مربوط به محتوا را در بانک اطلاعاتی قرار میدهد که با موتور جستجو میتوان آن را در دسترسی قرار داد(هیئت مولفان و ویراستاران انتشارات میکروسافت،۱۳۸۲،ص ۵۴۴). کار اسپایدر بازبینی کدهای اج تی ام ال[۲۹] صفحات وب میباشد، در حالی که کاربران وب نتیجه حاصل از کنار هم قرار گرفتن این کدها را میبینند.
در حالی که کراولر، نرم افزاری است که به عنوان یک فرمانده برای اسپایدر عمل میکند و مشخص میکند که اسپایدر کدام صفحات را مورد بازدید قرار دهد. در واقع کراولر تصمیم میگیرد که کدام یک از لینکهای صفحهای که اسپایدر در حال حاضر در آن قرار دارد، دنبال شود. کراولر، ممکن است قبلا” برنامه ریزی شده باشد که آدرسهای خاصی را طبق برنامه، در اختیار اسپایدر قرار دهد تا از آن ها دیدن کند. دنبال کردن لینکهای یک صفحه به این بستگی دارد که موتور جستجوگر چه حجمی از اطلاعات یک سایت را میتواند در پایگاه دادههایش ذخیره کند و همچنین ممکن است اجازه دسترسی به بعضی از صفحات به موتورهای جستجوگر داده نشده باشد. تنظیم میزان دسترسی موتورهای جستجوگر به محتوای یک سایت توسط پروتکل روبوت[۳۰] انجام میشود.
سپس اطلاعات جمع آوری شده توسط اسپایدر در اختیار ایندکسر قرار میگیرد. در این بخش اطلاعات ارسالی مورد تجزیه و تحلیل قرار میگیرند و به بخشهای متفاوتی تقسیم میشوند. تجزیه و تحلیل بدین معنی است که مشخص میشود اطلاعات از کدام صفحه ارسال شده است، چه حجمی دارد، کلمات موجود در آن کدام است، چندبار تکرار شده است، در کجای صفحه قرار دارند و … . در حقیقت ایندکسر، صفحه را به پارامترهای آن خرد میکند و تمام این پارامترها را به یک مقیاس عددی تبدیل میکند تا سیستم رتبه بندی بتواند پارامترهای صفحات مختلف را با هم مقایسه کند. در زمان تجزیه و تحلیل اطلاعات، ایندکسر برای کاهش حجم داده ها از بعضی کلمات که بسیار رایج هستند صرفنظر میکند. کلماتی نظیر a ، an ، the ، www ، is و … . از این گونه کلمات هستند.
“