فروش سرور hp فروش سرور فروش سرور اچ پی

فروش سرور hp فروش سرور فروش سرور اچ پی

فروش سرور hp فروش سرور فروش سرور اچ پی
فروش سرور hp فروش سرور فروش سرور اچ پی

فروش سرور hp فروش سرور فروش سرور اچ پی

فروش سرور hp فروش سرور فروش سرور اچ پی

افزایش اندازه و مقیاس کلاستر ( قسمت چهارم )


افزایش اندازه و مقیاس کلاستر ( قسمت چهارم )

 

هر دو نوع کلاسترینگ قابلیت پیاده سازی در مقیاس های بزرگتر را دارند بدین معنی که شما می توانید کارایی کلاستر خود را مطابق نیاز خود و میزان رشد سازمان خود بالا ببرید.

Scaling Up :  افزایش کارایی سرورها با ارتقا دادن سخت افزار آنها، اضافه کردن RAMیا  CacheL2، قراردادن پردازده های سریعتر از راه هایی هستند که می توان به افزایش کارایی کلاستر  کمک کند، بهبود کارایی در این روش به نوع پیاده سازی کلاستر  شما نیز وابسته می باشد. شما باید این میزان افزایش توانایی رابرای تمامی سرورها اعمال کنید،چرا که ممکن است کامپیوتر فعال دارای قدرت بیشتری باشد و زمانی که از کار می افتد کامپیوترهای غیر فعال نتوانند میزان کار درخواست شده را انجام دهند. بنابراین باید تمامی سرورها در یک سطح از توانایی قرار داشته باشند.

Scaling Out : اضافه کردن سرور به کلاستر، زمانی که شما یکسری درخواست رابین سرورها توزیع می کنید میزان پردازش با افزایش سرورها و تقسیم شدن کارکمتر می شود، افزایش سرور را می توان در هر دو نوع   سرور کلاستر و ( ان ال بی ) انجام داد.

اضافه کردن یک سرور جدید به ( ان ال پی ) کار راحتی می باشد به این علت که هر سیستم در این کلاستر دارای منبع اطلاعات مستقل است لذا اضافه کردن یک سرور جدید در این حالت،کاری راحت میباشد به طوری که با کپی کردن منبع اطلاعات و برنامه دورن سرور جدید، می توان آن را به کلاستر اضافه نمود.

اضافه کردن یک سرور جدید به کلاستر سرور، کمی پیچیده تر از  ( ان ال بی ) می باشد، چرا که در این نوع کلاستر تمامی سرورها از یک منبع اطلاعاتی مشترک استفاده می کنند. با توجه به تنظیمات سخت افزاری شما، افزایش مقیاس می تواند بسیار گران و یا شاید هم غیر ممکن باشد.

چه تعداد کلاستر؟

اگر شما قصد اجرای بش از یک برنامه را با قابلیت دسترسی بالا داشته باشید باید تصمیم بگیرید می خواهید چه تعداد کلاستر داشته باشید. سرور کلاسترها می توانند چندین برنامه را به صورت همزمان اجرا نمایند یا اینکه سرویس دهنده های کلاستر جدا ایجاد نمایند تا هرکدام یک برنامه را اجرا نمایند.

کلاستر سرور مجزا برای برنامه ها

برای مثال شما دو برنامه State full دارید و قصد اجرای این برنامه ها را با استفاده از سرور کلاستر دارید، ساده ترین روش این است که یک سرور کلاستر ایجاد کنید و هر دو برنامه را روی سرورهای آن اجرا نمایید. اگر یکی از کامپیوترها با خطا مواجه شده و از سرویس خارج شود باقی سرورها باید توانایی اجرای برنامه های آن را داشته باشند.

روش دیگر، ایجاد کلاستر سرور جدا برای هر برنامه است که سرورهای هر کلاستر به صورت جداگانه کار می کنند و خطا در هر کلاستر باعث تاثیر گذاری روی برنامه همان کلاستر می شود، به علاوه سرورهای باقیمانده تنها یک برنامه را سرویس دهی می نمایند. ایجاد سرورهای جدا، از قابلیت دسترسی بالاتری برخوردار است اما پیاده سازی آن، گرانتر تمام می شود چرا که نیاز به سرورهای بیشتری است.

ترکیبی از دو حالت قبل

علاوه بر این شما می توانید ترکیبی از این دو حالت را نیز داشته باشید طوری که یک کلاستر سرور ایجاد کنید و در آن دو سرور فعال داشته باشید و هرکدام از برنامه ها را روی یک سرور فعال نصب نمایید و یک سرور غیر فعال داشته باشید که به عنوان پشتیبان هر دو برنامه را روی آن نصب نمایید. در صورتی که یکی از سرورهای فعال از سرویس خارج شود سرور غیر فعال وظیفه آن را به عهده می گیرد. در صورتی که هر دو سرور فعال از سرویس خارج شوند سرور غیر فعال به جای هر دو سرویس دهی می نماید. بستگی به شما دارد که توانایی و ظرفیت سرورغیر فعال در حد اجرای یک برنامه باشد یا هر دو برنامه.

در قسمت بعدی راجع به ادغام دو تکنولوژی کلاسترینگ سرویس دهنده کلاستر با NLB و همچنین مفهوم  NLB بیشتر توضیح خواهیم داد.

http://goo.gl/7nJpa1

 

نیم نگاهی به سرور HP DL380 GEN9

نیم نگاهی به سرور HP DL380 GEN9

 
نتکو HP-DL380-GEN9

HP-DL380-GEN9

نیم نگاهی به سرور HP DL380 GEN9

سرور DL380 پرفروش ترین سرور در جهان است که در آینده نیز بهتر از این خواهد شد.سرور HP DL380 GEN9 آخرین عملکرد و توسعه پذیری را در یک سرور با ۲ cpu و اشغال  ۲ یونیت به شما ارائه می دهد. قابلیت اطمینان بالا ، سرویس دهی بالا ، توانایی مداوم ، با حمایت از یک گارانتی جامع ، این سرور را برای هر محیطی ایده آل می کند و یک دیتا سنتر استاندارد را گسترش می دهد.

این سرور برای کاهش هزینه ها و همچنین پایین آوردن پیچیدگی ها از cpu های Intel v3 که ۷۰درصد کارایی پردازش را افزوده است و بوسیله تکنولوژی رم های اچ پی DDR4 ماکزیمم ۴/۱ ترابایت رم با ۱۴درصد کارایی بالاتر ارائه می دهد. علاوه بر این پورت SAS در این سرور پهنای باند ۱۲گیگ دارد همچنین ۴۰ گیگ NIC دارد تا طیف گسترده ای از گزینه های گرافیکی و محاسباتی را پوشش دهد.

نتکو HP-DL380-GEN9

سرور DL380 G9 در هر مجموعه ی کامپیوتری به صورت اتوماتیک ضروری ترین وظایف مدیریت چرخه عمر سرور را انجام می دهد که شامل : استقرار، بروز رسانی، نظارت، و حفظ با سهولت می باشد. این سرور با اعتماد می تواند همه چیز از جمله بیشتر برنامه های پایه تا ماموریت های حیاتی را اجرا کند. طراحی انعطاف پذیر این سرور باعث می شود سرمایه گذاری شما اثباتی برای آینده شما باشد تا بتوانید نیازهای کسب و کار خود را بوسیله آن گسترش دهید. سرور HP DL380 G9 یک شاسی قابل انعطاف می باشد که توانایی نصب ۸ الی ۲۴ عدد هارد SFF را دارد . همچنین از ۴ الی ۱۲ عدد هارد LFF می توان به راحتی بر روی آن نصب کرد. کمپانی HP یک قابلیت فوق العاده برای این سرور درنظر گرفته که آن نصب دوعدد هارد SFF درپشت این سرور می باشد.

طراحی مجدد آرایه ها در این سرور بسیار انعطاف پذیر می باشد. کنترلر HBA SAS جدید برروی این سرور به شما پهنای باند ۱۲Gb/s را می دهد. همچنین چیپ ست کنترلر B140i برروی مادربورد قابلیت SATA Raid را برای شما فراهم می کند. انتخاب یک کارت شبکه با ۴ پورت ۱Gb/s و کارت های جدید که تا ۴۰Gb/s پهنای باند در محیط شبکه را برای شما فراهم می نماید ، از جمله خصوصیات جدید این سرور می باشد.

System features

Intel® Xeon® E5-2600 v3 product family

Processor family

۱ or 2

Number of processors

۱۸ or 16 or 14 or 12 or 10 or 8 or 6 or 4

Processor core available

۲U

Form factor (fully configured)

(۲) Flex Slot

Power supply type

 (۶) Maximum – For detail descriptions reference the QuickSpec

Expansion slots

Memory, maximum1.5TB

Memory

۲۴ DIMM slots

Memory slots

DDR4 SmartMemory

Memory type

Storage

 ((۴) or (12)) LFF SAS/SATA/SSD((8) or (16) or (24)) SFF SAS/SATA/SSD(۲) SFF Rear drive optional or

(۳) LFF Rear drive optional

Hot plug, depending on model

Drive description

Controller Cards

۱Gb 331i Ethernet Adapter 4 Ports per controller and/or

Network controller

Depending on model

Optional FlexibleLOM

 (۱) Dynamic Smart Array B140i and/or

(۱) Smart Array P440

(۱) Smart Array P840

Depending on model

بررسی ۱۰ نکته مفید مجازی سازی

بررسی ۱۰ نکته مفید مجازی سازی

بررسی ۱۰ نکته مفید مجازی سازیReviewed by مدیر سایت on Dec 16Rating:
نتکو Virtualization

Virtualization

بررسی ۱۰ نکته مفید مجازی سازی

مجازی سازی می‌تواند موجب کاهش هزینه‌ها، تسهیل امور مدیریتی، و توانمند ساختن یک سازمان در بهره وری هر چه بیشتر از سرمایه‌های فنی خود شود. نکاتی که در ادامه می‌خوانید به شما کمک می‌کند تا از این منافع بهره مند شوید.

مجازی سازی برای تمامی شرکت‌ها در هر اندازه‌ای که باشند به یک ضرورت تبدیل شده است. از شرکت های بسیار کوچک تا شرکت های بزرگ خدمات تولید, مجازی سازی کمک می‌کند تا از سخت‌افزارهای خود بهره وری بیشتری کنند و این سخت افزارها برای شرکت ‌های خود نسبت به سابق کار بیشتری انجام دهند. این فناوری برای بسیاری از شرکت‌ها کاملاً جدید، اما برای بقیه کهنه و قدیمی شده است. صرف نظر از این که شما در چه موقعیتی هستید، مجازی سازی یک فناوری گسترده با اجزای متحرک فراوان است. داشتن دانش انجام کاری به بهترین وجه که متناسب با نیازهایتان باشد باید هدف اصلی شما و تیم IT شرکتتان باشد. با در نظر گرفتن این ایده، در ادامه به بررسی ۱۰ نکته راجع به مجازی سازی می‌پردازیم که نباید توسط مدیران شبکه نادیده گرفته شوند. البته منظور ما آن دسته از مدیران شبکه است که تازه این فناوری را مد نظر قرار داده‌اند (یا قبلاً راجع به آن بررسی دقیقی کرده‌اند).

۱: سخت افزار را برای ظرفیت مجازی برنامه ریزی کنید

هنگامی که در مراحل اولیه برنامه ریزی محیط مجازی خود هستید، اشتباهاً سخت افزاری را خریداری نکنید که توان مدیریت باری که مجازی سازی روی آن قرار می دهد را ندارد. در این زمینه شما نیاز به تعمق بیش از حد معمول دارید. به یاد داشته باشید که سرور شما ممکن است میزبانی ماشین‌های مجازی متعددی را بر عهده گیرد، بنابراین باید قدرت اولیه و همچنین فضای لازم برای رشد را داشته باشد. در نهایت شما به سرور میزبانی نیاز دارید که مختص ماشین‌های مجازی باشد. ظرفیت را دو برابر اندازه گیری کنید، با اعمال هر ماشین مجازی یک ظرفیت کم کنید. تصور نکنید که یک ماشین مجازی فضای کمی را بر روی سرور اشغال می‌کند. و همچنین فرض را بر این نگذارید که سرور  شما تنها میزبان یک ماشین مجازی است.

۲: طول عمر هر ماشین مجازی را پیگیری کنید

من از برخی مدیران شبکه شنیده‌ام که یک ماشین مجازی را رها کرده و با کمترین و حتی بدون نظارت گذاشته‌اند که کار خود را بکند. شما باید تمامی ماشین‌های مجازی خود را از ابتدا تا به انتها پیگیری کنید. همچنین همیشه باید راجع به این که ماشین‌های مجازی تا چه اندازه گسترش یافته ‌اند، وضعیت کنونی آنها چیست، چه مقدار ترافیک را به خود اختصاص داده‌اند، و هر نوع اطلاعات دیگری که به دست می‌آورید، مطلع باشید. موضوع بسیار وسوسه انگیز این است که بگویند: ماشین‌های مجازی را “تنظیم کن و فراموش کن”، اما این یک اشتباه فاحش است و می‌تواند شما را در دنیایی از مشکلات فرو ببرد. نرم افزار مانیتورینگ میزان استفاده از پهنای باند توسط هر یک از ماشین های مجازی را به شما نمایش می دهد و شما به آسانی ماشین هایی که بیشترین ترافیک شبکه را دارند شناسایی و مدیریت خواهید کرد.

۳: هر چیزی را مجازی سازی نکنید

هر چیزی را نباید مجازی سازی کرد. منظور سرور FTP است که تنها ترافیک داخلی چندین کاربر را دریافت می‌کند؟ احتمالاً خیر. پرینت سرور؟ نه احتمالاً. شما نیاز به ایجاد یک برنامه مشخص و دلایل قاطع برای هر چیزی که مجازی سازی می‌شود، دارید. اولین چیزی که باید از خودتان بپرسید این است که “چرا لازم است سرور X را مجازی سازی کنیم؟ وقتی توانستید به این پرسش با اندکی اطمینان پاسخ دهید، همین استدلال را برای هر سروری که فکر می‌کنید از مجازی سازی سود می‌برد، به کار ببرید.

۴: ترافیک مجازی را همچون ترافیک غیر مجازی نظارت کنید

مطمئن شوید که ترافیک مجازی را همچون ترافیک غیر مجازی خود نظارت می‌کنید. خیال خود را با این تفکر که میزبان‌های مجازی ایمن‌ترند صرفاً به این دلیل که به صورت آنی می‌توانید وضعیت آنها را با یک هشدار کنترل نمایید، راحت نکنید. این یک حس کاذب از ایمنی است و نباید به عنوان جایگزینی برای امنیت در نظر گرفته شود. اما نظارت فراتر از امنیت می‌رود. شما باید از ترافیک داخلی و خارجی ماشین‌های مجازی خود اطلاع داشته باشید. پس از یک دوره زمانی معین، شما می‌فهمید که آیا لازم است به ماشین‌های خاصی منابع بیشتری داده شود و این که آیا به سایر ماشین‌های مجازی می‌توان به صورت مستقل سرویس داد.

۵: منابع مجازی را به صورت رایگان نبخشید

من بارها دیده‌ام: ماشین‌های مجازی که به نظر می‌رسند فضای کمی اشغال می کنند به راحتی در یک حوزه به صورت “رایگان” در اختیارگذاشته می‌شوند. این کار را نکنید. حتی یک سرور را به صورت رایگان از حالت مستقل به حالت مجازی شده تغییر ندهید. مشتریان باید منافعی که از سرور مجازی شده عاید آنها می شود را درک کنند. مجازی سازی همراه با تمام مزایایی که با خود به ارمغان می‌آورد، هزینه ای دارد. علاوه بر این، فناوری مورد نیاز برای مجازی سازی دارای هزینه‌های مرتبط است، و گاهی اوقات این هزینه‌ها بالاست. سازمان شما نمی‌تواند به تنهایی از عهده این مخارج برآید.

۶: از ماشین های مجازی برای سیستم‌های یکبار مصرف استفاده کنید

این مساله ممکن است برای برخی افراد کمی عجیب به نظر برسد، اما مواقعی هست که شما موقتاً نیاز به یک سیستم و یا سرویس دارید. در چنین مواقعی هیچ راهی بهتر از ارائه یک سرویس موقت با ماشین‌های مجازی وجود ندارد. نیاز به یک سرور FTP موقت هست؟ ماشین مجازی کارساز است. نیاز به یک پرینت سرور یا وب سرور موقت هست؟ ماشین مجازی کفایت می کند. یک نکته خوب راجع به ماشین‌های مجازی این است که منابع سخت افزاری آنها برای شما هزینه بر نیست، بنابراین ایجاد چنین ماشینی بسیار آسان است. شما حتی می‌توانید ماشین‌های مجازی خاصی را برای “وظایف یکبار مصرف” ایجاد کرده و آنها را تنها در صورت نیاز فعال کنید.

۷: هنگامی که کارآیی مهم است، از دیسک‌های حجیم استفاده کنید

اکثر مدیران برای ماشین‌های مجازی خود دیسک‌هایی با حجم پویا ایجاد می‌کنند. برای آن دسته از ماشین‌های مجازی که نیاز به کارآیی بیشتری دارند، باید دیسک های حجیمی  اختصاص دهید. به عبارت دیگر، یک اندازه واقعی برای دیسک در پیکربندی ماشین مجازی تنظیم کنید. بله، باید برنامه ریزی‌های لازم را بکنید تا ماشین میزبان فضای کافی برای سرویس دهی به  ماشین‌های مجازی را داشته باشد. اما کارآیی حاصل از این کار قطعاً ارزش وقتی که صرف کرده‌اید را خواهد داشت.

۸: تمام ابزارهای توسعه ماشین مهمان (guest)و مجازی سازی را نصب کنید

این امر اجتناب ناپذیر است. اکثر ابزارهای ماشین مجازی (مانند VMware و VirtualBox) ابزارهای توسعه ماشین مهمان و دیگر ابزارهای مجازی سازی را ارائه می‌دهند که برای بهبود تجربه و عملکرد و همچنین ارتباط یکپارچه مهمان و میزبان ایجاد شده‌اند. بسیاری از مدیران از نصب این ابزارها با فرض اینکه غیر ضروری هستند، غفلت می‌کنند. اما شما آنها را نصب کنید. ابزار‌های یکپارچه سازی ماوس، درایورهای صفحه نمایش، یکسان سازی زمان مهمان- به- میزبان ، و ابزار‌های دیگر می‌توانند برای کمک به کارآمدتر ساختن یک ماشین مجازی نصب شوند. اگرچه ممکن است لازم نباشند، اما برای بهبود قابلیت استفاده نهایی مفیدند.

۹: سیستم میزبان خود را در تمام اوقات کاملاً به روز نگه دارید

اکثر افراد تصور می‌کنند تمام فشار روی سیستم عامل ماشین مهمان است. هر چند این امر برای ماشین مجازی درست است، میزبان نیز نقش مهمی در این فرآیند ایفا می‌کند. آخرین چیزی که شما نیاز دارید این است که ماشین‌های مجازی خود را بر روی یک دستگاه آسیب پذیر ایجاد کنید. اگر این سرور میزبان ماشین‌های مجازی متعددی نیست، مطمئناً تنها چیزی که در معرض خطر است داده‌های ارزشمند سرور است. اما از آنجا که سرور میزبان تعدادی ماشین مجازی است (که برخی از آنها می‌تواند متعلق به مشتریان باشد)، تهدید از دست دادن داده‌ها به طور قابل توجهی افزایش می‌یابد. به همین دلیل، شما باید مطمئن شوید که ماشین میزبان به روز و همیشه ایمن است.

۱۰- از یک راه کار جامع برای مانیتورینگ زیر ساخت های مجازی سازی استفاده کنید

نظارت بی وقفه و جامع زیر ساخت های مجازی سازی از اهمیت بسیار بالایی برخوردار است، به خصوص در مواقعی که تعداد سرورهای مجازی شما زیاد باشد امکان کنترل سلامت و بررسی وضعیت هر یک از سیستم ها به صورت موردی و دستی امکان پذیر نیست، لذا شما نیاز به راه کاری تخصصی برای مانیتورینگ ۲۴ ساعته سرورهای مجازی دارید که در صورت بروز هر گونه اشکال شما را بلادرنگ از موضوع با خبر سازد، سیستم جامع مانیتورینگ شبکه و دیتا سنتر همه آنچه شما برای این امر نیاز دارید در اختیارتان قرار خواهد داد.

نتیجه

زمانی ممکن است شرکت شما قصد سرمایه گذاری در فناوری‌های مجازی را داشته باشد. در آن زمان، شما باید تا حد امکان آمادگی داشته باشید. توجه کنید که با سعی و کوشش و پشتکار کافی، ماشین های مجازی در پول، زمان و تلاش شما صرفه جویی می‌کنند – که در نهایت باعث رضایت مشتریانتان می‌شود.

مقایسه HYPER-V 2012 R2 با VSPHERE 5.5

مقایسه HYPER-V 2012 R2 با VSPHERE 5.5

چندی پیش مایکروسافت و VMware از نسخه های جدید محصول مجازی خود رونمایی کردند و اکنون امکان مقایسه بین این دو محصول با نام های  Hyper-V 2012 R2 و vSphere 5.5 فراهم شده است.

vSphere 5.5 چندین اصلاح از نظر مقیاس پذیری (scalability) انجام داده است، از طرفی Microsoft Hyper-V 2012 به امکانات و ویژگی های موجود در نسخه های قبلی بهبود بخشیده است. در حال حاضر امکانات قدیمی Vmware مورد توجه مایکروسافت قرار گرفته و در نسخه جدیدHyper-V  لحاظ شده است. مانند cloning  و  disk resize (با امکان کاهش اندازه)

ما باید از چندین جهت عمل مقایسه را بین این دو مجازی سازی انجام دهیم و اعدادی که در جدول زیر نوشته شده است برای مقایسه این دو کافی نیست. ضمن اینکه حداقل حافظه برای هر دو متفاوت است مدیریت حافظه نیز برای هر دو فرق دارد. Vmware از تکنولوزی مختلف و Hyper-V فقط از حافظه داینامیک استفاده می کند. سخت افزار مورد نیاز برای هر دو تقریباً مشابه ولی فضایی که برای Hypervisor  نیاز است، متفاوت می باشد (Esxi  می تواند بر روی ۱ گیگا SD card یا  USB نصب شود.)

Scaling

سیستم منابع Hyper-V 2012 R2 Vs phere 5.5 Essential plus Vsphere 5.5 Enterprise plus Vsphere 5.5 Enterprise Plus
Host پردازنده منطقیLogical Processors ۳۲۰ ۳۲۰ ۳۲۰ ۳۲۰
Host حافظه فیزیکیPhysical Memory ۴TB ۴TB ۴TB ۴TB
Host پردازنده مجازی برای هر هاست  ۲۰۴۸ ۴۰۹۶ ۴۰۹۶ ۴۰۹۶
VM پردازنده مجازی برای هر ماشین مجازی ۶۴ ۸ ۸ ۶۴
VM حافظه برای ماشین مجازی ۱TB ۳۲GB ۱TB ۱TB
VM حداکثر دیسک مجازی ۶۴TB ۶۴TB- 1% ۶۴TB- 1% ۶۴TB- 1%
VM ماشین مجازی فعال ۱۰۲۴ ۵۱۲ ۵۱۲ ۵۱۲
Cluster بیشترین نود ۶۴ ۳۲ ۳۲
Cluster بیشترین ماشین مجازی ۸۰۰۰ ۴۰۰۰ ۴۰۰۰

حافظه پویا (Dynamic Memory) ابزار مجازی سازی Hyper-V است که این امکان را می دهد که از حافظه جانبی (RAM) استفاده کاراتری داشته باشید. با استفاده از حافظه پویا ، Hyper-V به حافظه جانبی به شکل یک منبع مشترک نگاه می کند که می تواند به صورت خودکار و در حالی که ماشین مجازی در حال اجراست دوباره تخصیص یابد.

توجه داشته باشید که ما می توانیم مقدار استاتیک از حافظه را به ماشین های مجازی اختصاص دهیم. کاربرد حافظه پویا لزوماً ضروری نیست ولی استفاده از آن کاراتر است. ضمن اینکه ترکیبی از حافظه استاتیک و پویا را می توانیم مورد استفاده قرار دهیم.

حافظه پویا مقدار حافظه موجود در ماشین مجازی را بسته به مقدار درخواست توسط ماشین مجازی و مقداری که مشخص کرده اید، تنظیم می کند. حافظه پویا در Hyper-V در windows server 2008 R2 SP1 موجود است ضمن اینکه می توان این امکان را برای سرویس دهی در رول Hyper-V در Windows server 2008 R2 یا برای Hyper-V server 2008 R2 نیز فعال کنید.

نتکو Setting-VM

Setting-VM

Startup RAM

دو نقش عمده در hyper-V ویندوز سرور ۲۰۱۲ ایفا می کند:

۱-اگر Dynamic Memory غیرفعال باشد، startup RAM به عنوان یک حافظه استاتیک عمل می کند.

۲-اگرDynamic Memory فعال باشد مقدار حافظه (RAM) مورد نیاز برای اجرای ماشین مجازی را نشان می دهد.

Minimum RAM (جدید)

حداقل حافظه جانبی مورد نیاز برای اختصاص به ماشین مجازی در هر زمانی را نشان می دهد. این عدد بایستی کمتر یا مساوی مقدار Startup RAM باشد. اگر ماشین مجازی به حافظه کمتری نیاز داشته و یا دیگر ماشین های مجازی به حافظه بیشتری نیاز داشته باشند Minimum RAM به Hyper-V این امکان را می دهد که مقدار حافظه اختصاص یافته به ماشین مجازی خاصی را کاهش دهد.

Maximum RAM

بیشترین مقدار حافظه که یک ماشین مجازی می تواند تقاضا کرده و مورد استفاده قرار دهد که حداکثر آن ۶۴G می باشد.

Memory Buffer

مقدار حافظه ایی که Hyper-V  قصد تخصیص به ماشین مجازی را دارد در قیاس با مقدار حافظه ایی که واقعاً توسط برنامه ها و اپلکیشین های در حال اجرا در ماشین مجازی مورد نیاز است.

Memory Weight

اولویت ماشین مجازی را برای اخذ حافظه پویا نشان میدهد.

در مقابل حافظه پویا، در VMware Vsphere ، Hot add این امکان را به ادمین می دهد تا میزان حافظه ماشین مجازی را بدن وقفه افزایش دهد.

Hot add را در طول پیکر بندی VMware می توان فعال کرد چون به صورت پیش فرض این گزینه فعال نیست و ماشین های مجازی بایستی خاموش شوند تا بتوان این گزینه را فعال کرد. ضمناً VMware، Hot add حافظه ، پردازنده ، NIC و … را نیز دارد.

کوالکام تراشه های اسنپدراگون را بهینه می‌کند

کوالکام تراشه های اسنپدراگون را بهینه می‌کند

کوالکام امروز اعلام کرد که پردازنده‌های سری اسنپدراگون خود را برای پشتیبانی از فناوری واقعیت افزوده‌ی پروژه‌ی تانگوی گوگل، بهینه سازی می‌کند. بزرگ‌ترین تولید کننده‌ی تراشه در جهان دو پردازنده‌ی اسنپدراگون ۶۵۲ و اسنپدراگون ۸۲۰ را دارای قابلیت پشتیبانی از این فناوری خوانده است. فناوری تانگو امکان مشاهده‌ی اطلاعات و داده‌های انیمیشنی را روی تصاویری از دنیای واقعی برای کاربران روی تبلت یا گوشی هوشمند امکان پذیر می‌کند. برای مثال با استفاده از تانگو می‌توان نحوه‌ی چینش یک صندل یا مبل را به هنگام خرید از فروشگاه در دکوراسیون منزل مشاهده کرد. با توجه به اینکه کوالکام نیز به صف کمپانی‌های حامی پروژه‌ی تانگو پیوسته، می‌توان انتظار داشت این فناوری به زودی بصورت همه‌گیر راهی بازار شود. کمپانی چینی لنوو نیز از جمله‌ی حامیان پروژه‌ی تانگو است.

براساس برآوردهای صورت گرفته انتظار می‌رود بازار واقعیت مجازی در سال ۲۰۲۰ ظرفیتی ۱۲۰ میلیارد دلاری داشته باشد.

کوالکام به این موضوع اشاره کرده که تراشه‌های سری ۶۰۰ و سری ۸۰۰ اسنپدراگون از فناوری تانگو پشتیبانی خواهند کرد. تمام سنسور‌ها و الگوریتم‌های مورد استفاده برای استفاده از فناوری تانگو توسط پردازنده‌ی اسنپدراگون میزبانی خواهد شد. این موضوع استفاده از پردازنده‌ی کمکی برای انجام پردازش‌های مورد نیاز تانگو را غیرضروری کرده و از این‌رو مصرف انرژی نیز کاهش می‌یابد. میزان انرژی مصرف شده برای پشتیبانی از پروژه‌ی تانگو کمتر از ۲ وات است که استفاده از آن در گوشی‌های هوشمند را توجیه پذیر می‌کند.

کوالکام تراشه های اسنپدراگون را بهینه می‌کند

کوالکام تراشه های اسنپدراگون را بهینه می‌کند

آیا عمر پردازنده‌های Core M اینتل به پایان رسیده ؟

آیا عمر پردازنده‌های Core M اینتل به پایان رسیده ؟

در سال ۲۰۱۴، کمپانی اینتل قول داد که پیاده‌سازی کم‌مصرف معماری برادول (Broadwell) این شرکت، همان انقلابی را به وجود بیاورد که تولیدکنندگان مختلف، مدت‌ها انتظار داشتند در معماری x86 این کمپانی ببینند. اینتل مدعی بود که استفاده از پردازنده‌های سری Core M کاهش بسیار چشمگیر مصرف انرژی را در پی داشته و موجب می‌شود فشرده سازی و اجتماع قطعات سخت‌افزاری به بهترین وجه شده و امکان ساخت سیستم‌های x86‌ بدون فن را برای اولین بار فراهم کند.

متاسفانه تاریخ این گونه نشان نمی‌دهد و ادعای اینتل ثابت نشد. گرچه پردازنده‌های Core M توانستند به موفقیت‌هایی در تبلت‌های بزرگ، الترابوک‌ها و تبلت‌های هیبریدی دست یابند، اما سخت‌افزار این تبلت‌ها نزدیک به پرازنده‌های core i3، i5 و i7‌ بوده است. برای این که دید بهتری به این موضوع پیدا کنید بهتر است بدانید که پس از یک بررسی مشخص شد که از بین ۳۲۸ مدل مختلف از تبلت‌های هیبریدی، تنها ۴۲ دستگاه از پردازنده‌های core M، M3 ،M5 و M7 بهره می‌برند. این بدان معناست که گرچه سری Core M به طور کامل از خطوط تولید کنار گذاشته نشده‌اند، اما توجه چندانی هم به آن‌ها نمی‌شود.

دیجیتال ترندز به تازگی مقاله‌ای منتشر کرده و در آن گفته است: «هیچ کس پردازنده‌های سری Core M اینتل را نمی‌خواهد و نمایشگاه کامپیوتکس هم صحت ادعای ما را ثابت کرد.» گرچه ممکن است وضعیت به اندازه‌ای که دیجیتال ترندز گفته است وخیم نباشد، اما تا حدودی هم باید به این حقیقت اعتراف کرد که بر خلاف ادعا و هیاهوی تبلیغاتی اینتل در سال ۲۰۱۴، پردازنده‌های سری Core M نتوانسته‌اند به انتخاب اصلی تولیدکنندگان دستگاه‌های هیبریدی تبدیل شوند. همچنین بر خلاف دیجیتال ترندز، ما گمان نمی‌کنیم که این مشکل مربوط به قیمت یا برند این تراشه‌ها باشد، چرا که اینتل معتبرترین سازنده‌ی تراشه در تمام دنیا است و قیمت‌گذاری این تراشه‌ها هم نسبت به مدل‌های دیگر اینتل منصفانه بوده است.

آیا عمر پردازنده‌های Core M اینتل به پایان رسیده ؟

آیا عمر پردازنده‌های Core M اینتل به پایان رسیده ؟

 

هدف اینتل از ساخت پردازنده‌های سری Core M قرار دادن گزینه‌های بیشتر در دسترس تولیدکنندگان اولترابوک‌های بالارده بود. این تولیدکنندگان پیش‌تر گزینه‌‌های محدودی در دسترس داشتند. متاسفانه در بسیاری از موارد، تولیدکنندگان ترجیح دادند که در کنار افزایش رزولوشن صفحه نمایش، تمرکز خود را روی کاهش ضخامت و رسیدن به باریک‌ترین طراحی ممکن قرار دهند و همین موجب شد که از پردازنده‌های Core M دوری کنند.

افزودن هر پیکسل به صفحه نمایش، بهایی دارد که باید پرداخت شود و آن هم مصرف بیشتر انرژی است. اگر بخواهید متنی را با بزرگنمایی ۱۵۰ تا ۲۰۰ درصد در صفحه نمایش جدید خود بخوانید، پیکسل‌هایی که حالا توسط چشم شما دیده نمی‌شوند مقداری انرژی مصرف می‌کنند که بیشتر از نمایشگر قبلی با رزولوشن کمتر است. صفحه نمایش رده‌بالا که دارای روزلوشن‌های بالایی هستند، خود انرژی گرمایی قابل توجهی تولید می‌کنند و همین موجب می‌شود که برای گرم شدن پردازنده، حد معینی تعیین کنیم که از آن فراتر نرود. چیپ‌های تولید شده توسط اینتل هنوز دارای مدار مجتمع وای‌فای یا رادیو روی خود نیستند، اما از طرفی مصرف انرژی آن‌ها از سیستم روی چیپ‌های ARAM که گزینه‌های یاد شده را بر روی خود دارند بالاتر است.

اینتل هرگز به صورت رسمی تایید نکرد که پردازنده‌های Core M از نسخه‌ی کم مصرف معماری ۱۴ نانومتری بهره می‌برند، اما اشاره‌هایی مختصر به این موضوع داشته است. مثلا در برخی از بیانیه‌های اینتل، به فرایند ۱۴ نانومتری ساخت این پردازنده‌ها و تمایز آن از فرایند ۱۴ نانومتری TriGate‌ معمول این کمپانی اشاره‌هایی شده است. اگر این موضوع صحت داشته باشد، بعید است که اینتل به همین راحتی قصد تعطیل کردن خط تولید تراشه‌های سری Core M خود را داشته باشد. اگر هم این کمپانی قصد توقف تولید این محصولات را داشته باشد، هنوز در حد پیشنهاد است و نمی‌توان زمان خاصی را برای آن تعیین کرد.

بررسی‌های دیجیتال ترندز روی باتری دستگاه‌ها هیبریدی نشان داد که اگرچه در شرایط بیکاری و استندبای، پردازنده‌های Core M نسبت به سایر پردازنده‌های مورد استفاده در این محصولات از نظر مصرف انرژی دارای بازدهی بهتری هستند، اما در عمل هنگام استفاده و در حین انجام کارهای عادی، تفاوت چندانی با سایر پردازنده‌ها ندارند. این وبسایت به بررسی سه مدل مختلف از کمپانی‌های سامسونگ، لنوو و ایسوس پرداخته است. مدل‌های Samsung Ativ Book 9 ،Zenbook UX305 و Lenovo T450s. مدل Ativ Book 9 سامسونگ از یکی از پردازنده‌های نسبتا قدیمی و سری اول خانواده‌ی Core M اینتل بهره می‌برد که مبتنی بر معماری برادول است، در حالی که مدل Zenbook UX305 ایسوس از یک پردازنده Core m3 6Y30 جدید و مبتنی بر اسکای‌لیک بهره می‌برد. بهینگی و عملکرد این دو مدل در مصرف باتری، با دستگاه T450s لنوو مقایسه شده است. این دستگاه از پردازنده‌ی core i5 5300U بهره می‌برد. در جدول زیر، نتایج این بررسی را مشاهده می‌کنید.

آیا عمر پردازنده‌های Core M اینتل به پایان رسیده ؟

آیا عمر پردازنده‌های Core M اینتل به پایان رسیده ؟

 

 

تفاوت زیاد بین مصرف باتری این دو پردازنده‌ی Core M در حالت استراحت و بی‌وظیفگی، نشان‌گر وجود تفاوت‌های ظریفی در تنظیم UEFI‌ این دو پردازنده است، و ناشی از تفاوت معماری این دو نیست. به همین دلیل است که در تست‌های بعدی، این دو پردازنده بسیار به هم نزدیک هستند.

این تست‌ها که بر اساس کارکرد معمول یک دستگاه در دنیای واقعی شبیه سازی شده‌اند و نتایج آن‌ها نشان داد که گرچه اینتل موفق شده است پردازنده‌هایی کم‌مصرف به کاربران عرضه کند، اما تنها اندکی کم مصرف‌تر. اینتل نتوانسته پردازنده‌هایی بسازد که به طور جدی و چشمگیری کم مصرف‌تر از نمونه‌های پیشین این کمپانی باشند. همان طور که در شکل بالا ملاحظه می‌کنید، اختلاف مصرف انرژی بین این دو گروه پردازنده در شرایط کاری عادی چندان زیاد نیست. نمی‌توان با اطمینان گفت که قیمت چقدر در این امر تاثیر داشته است.

از آن‌جا که Core M 2 in 1 یعنی نوع قابل استفاده‌ در تبلت‌های هیبریدی، نسبتا گران و مخصوص دستگاه‌های بالارده است، سازندگان محصولاتی همچون سرفیس ۳ که قیمت پایین دارد، ترجیح می‌دهند از پردازنده‌های سری اتم کمپانی اینتل بهره ببرند، چرا که این پردازنده‌ها بسیار ارزان‌تر از پردازنده‌های Core M هستند. مثلا پردازنده‌ی Atom x7-Z8700 تنها ۳۷ دلار قیمت دارد که در برابر قیمت‌های چندصد دلاری پردازنده‌های Core M 2 in 1 واقعا ناچیز است.

از طرفی می‌توان مواضع تند دیجیتال ترندز در برابر پردازنده‌های Core M را درک کرد. در مجموع، ممکن است این وبسایت در مورد فاصله گرفتن تولیدکنندگان از این پردازنده‌ها به خاطر قیمت‌ آن‌ها درست بگوید. کمپانی‌ها از این پردازنده‌ها در محصولات خود چندان استفاده نمی‌کنند، زیرا احتمالا این پردازنده‌ها برتری خاص و چشمگیری در ازای قیمت بالایشان ندارند. البته این فقط یک عقیده است و نمی‌توان عدم موفقیت این سری را فقط ناشی از قیمت آن‌ها دانست. پیش‌تر هم گفتیم که امروزه تولیدکنندگان در ساخت دستگاه‌های خود به صورت وسواس‌گونه‌ای به افزایش رزولوشن صفحه نمایش تا مقادیر بیهوده و صرفا تبلیغاتی، کاهش ضخامت و کم کردن وزن توجه می‌کنند. البته افزایش رزولوشن همیشه بیهوده نیست و کاربردی بودن یا نبودن آن به اندازه‌ی پنل صفحه نمایش دستگاه هیبریدی مورد نظر بستگی دارد. مثلا رزولوشن ۴K برای یک تبلت ۱۰ اینچی واقعا ضروری نیست، چرا که حتی اگر از پنلی با رزولوشن ۲K هم استفاده کنیم، باز هم می‌توان محتوای دلخواه را با بالاترین کیفیت مشاهده کرد.

در نتیجه‌ی اعمال تغییرات مذکور در طراحی و ساخت، طبیعتا فضای کمتری در دسترس بوده و باتری‌های کوچکتری هم در بدنه جای داده می‌شود و شاید همین امر موجب عملکرد نسبتا ضعیف پردازنده‌‌های Core M هم در عملکرد و هم در میزان مصرف انرژی شده است. کسب نتایج نزدیک در تست تعجبی ندارد. به هر حال این پردازنده‌ها با پردازنده‌های Core i5، i3 و i7 که در دستگاه‌هایی با اندکی ضخامت بیشتر استفاده شده‌اند مقایسه نشده‌اند. ضخامت و باتری دستگاه‌های بهره‌مند از پردازنده‌های Core i بیشتر از دستگاه‌های دارای پردازنده‌ی Core M است و همین موجب استفاده از باتری‌هایی نابرابر در این دو گروه از محصولات شده است.

اگر کمپانی اینتل تصمیم به توقف تولید پردازنده‌های سری Core M خود گرفته است، بهتر است این کار را تا زمان عرضه‌ی پردازنده‌های ۱۰ نانومتری سری Cannonlake به تاخیر بیندازد، چرا که اینتل هم اکنون روی فناوری ۱۴ نانومتری خود مانور می‌دهد. از طرفی پردازنده‌های Core M هم بر اساس همین فناوری ساخته شده‌اند و با حذف آن‌ها، محصول خارق‌العاده‌ای ساخته نخواهد شد، زیرا از لیتوگرافی کوچک‌تر خبری نیست و در هر صورت اینتل باید تا هنگام معرفی فناوری ۱۰ نانومتری خود، از تکنولوژی ۱۴ نانومتری استفاده کند و به همین دلیل نمی‌تواند با حذف سری Core M و ارائه‌ی یک سری ۱۴ نانومتری جدید، تغییرات شگرفی ایجاد کند. از طرفی اپل هم مک‌بوک خود را به پردازنده‌های Core M‌ مجهز کرده است و ممکن است بخواهد در نسل‌های بعدی اولترابوک خود مجددا از این پردازنده‌ها استفاده کند. بنابراین بهتر است اینتل فعلا دست نگه داشته و به تولید پردازنده‌های Core M خود ادامه دهد.

سرور جدید۳۰۰ دلاری جایگزین دسکتاپ

شرکـــت «HPE»  ســـرور رده‌پاییـــن ۳۰۰ دلاری‌ای بــــه نـــــام «ProLiant ML10 Gen9» معرفی نمود که می‌تواند به خوبی جایگزین کامپیوتر دسکتاپ ما شود. این سرورکه Mini Tower با اندازه ۴U برای کاربران خانگی و کسب‌وکارهای کوچک اداری طراحی و ساخته شده است و کاربران را از خرید سرورهای گران با قدرت محاسباتی بسیار زیاد که عمدتاً بدون مصرف باقی می‌ماند، بی‌نیاز می نماید.

 

هسته پردازنده این سرور می‌تواند از مدل‌های جدید اسکایلک اینتل، Core i3 یا Xeon E3-1200 V5 باشد. تعداد پردازنده نصب‌شده روی این سرور یک عدد بوده  ولی با دو یا چهارهسته که در کنار ۶۴ گیگابایت حافظه رم و چهار اسلات رم DDR4، می‌تواند عملیات پردازشی را سروسامان و روان نماید. شش درایو SSD روی این سرور نصب شده و مجهز به چهار اسلات توسعه برای اضافه نمودن قابلیت‌های سخت‌افزاری جدیدی می باشد. یک درگاه شبکه اترنت، چهار درگاه USB 3.0، دو درگاه USB 2.0 و دو درگاه eSATA، امکانات ارتباطی این سرور هستند. که می توان از آنها بهره برد.

این محصول به گونه ای طراحی شده است و از مشخصات سخت‌افزاری بهره برداری می کند که می‌تواند به‌عنوان سرور ذخیره‌سازی یا NAS، دستگاه ایستگاه کاری یا سرور محاسباتی قابل استفاده گردد. پیکره بندی‌های سخت‌افزاری مختلف این سرور شرکت‌های تجاری کوچک را یاری می‌کند تا بر اساس نیاز و رشد کسب‌وکارشان یک مدل از این سرور را تهیه نموده  و آن را ارتقاء دهند. امکان نصب چهار درایو SSD این قابلیت را فراهم می نماید تا از پیکره بندی‌های مختلف RAID برای پشتیبان‌گیری از اطلاعات استفاده گردد و با سخت‌افزارهای رمزنگاری، امنیت اطلاعات را تضمین نماید.

ساخت سرور جدید OpenPOWER با همکاری آی‌بی‌ام و انویدیا

ساخت سرور جدید OpenPOWER با همکاری آی‌بی‌ام و انویدیا

«OpenPOWER» سرور قدرتمندی است که برای کاربردهای محاسباتی با عملکرد و راندمان بالا (HPC) طراحی و عرضه می‌شود. اکنون «آی‌بی‌ام» با همکاری «انویدیا» و «وسترون» نسخه دوم این سرور را با استفاده از آخرین نسل پردازنده‌های فوق‌سریع Power8 خود معرفی کرده است.

 

انویدیا همچنین در این سرور از شتاب‌دهنده‌های گرافیکی Tesla P100 خود در کنار اینترکانکشن‌های مبتنی بر فناوری NVLink استفاده کرده است. سرور جدید برای تطبیق و استفاده از برنامه‌های لازم روی معماری جدید سخت‌افزاری‌اش نیاز به نرم‌افزارهایی دارد. آی‌بی‌ام و انویدیا توضیحات زیادی درباره این سرور نداده‌اند، به جز اینکه می‌دانیم از چندین پردازنده Power8 و چندین شتاب‌دهنده Tesla P100 بهره می گیرد و پهنای باند اینترکانکشن‌های NVLink، احتمالاً مثل مدل قبلی و برابر ۲۰ گیگابایت بر ثانیه هستند.

 

پردازنده‌های Power8 آی‌بی‌ام دارای ۱۲ هسته پردازشی هستند و در سرعت کلاک ۳ تا ۳٫۵ گیگاهرتز کار کرده و هریک می‌توانند تا هشت سخت‌افزار را به صورت Thread پشتیبانی نمایند. میزان حافظه نهان این پردازنده‌ها شش‌مگابایت از نوع L2 و ۵۱۲ کیلوبایت برای هر هسته در کنار ۹۶ مگابایت حافظه نهان L3 می باشد. هر پردازنده Power8 حداکثر از یک ترابایت حافظه رم پهنای باند ۲۳۰ گیگابایت پشتیبانی می نماید؛ در حالی که بهترین پردازنده‌های سرور اینتل، Xeon E5 v4 تنها از ۷۶٫۸ گیگابایت پهنای باند روی حافظه‌های رم DDR4 بهره می گیرد. به همین دلیل، سرورهای OpenPOWER برای کاربردهای بسیار سطح بالا و مکان‌های با حداکثر بار ترافیکی پردازشی طراحی شده‌ است و توان خروجی به اندازه برخی ابررایانه‌ها را ممکن پذیر می‌سازند.

مراکز داده غرق در حافظه‌های NAND؛ بررسی انواع فناوری درایوهای جامد حرفه‌ای مناسب سرور

مراکز داده غرق در حافظه‌های NAND؛ بررسی انواع فناوری درایوهای جامد حرفه‌ای مناسب سرور

تا چند سال گذشته استفاده از درایوهای SSD در کسب‌وکارهای حرفه‌ای و گسترده، سرورها و مراکز داده به دلیل هزینه بالا و ظرفیت ذخیره‌سازی کم قابل تصور نبود اما حالا استفاده از هارددیسک در سرورها متوقف شده و هر روز تعداد مراکز داده بیشتری مبتنی بر حافظه‌های فلش و SSD پیکربندی می‌شوند؛ گویی مسابقه و رقابتی برای به کارگیری این نوع استاندارد ذخیره‌سازی در جهان به راه افتاده اما با وجود اینکه قیمت این ذخیره‌سازها کاهش نیافته است، چه مزایای رقابتی‌ای دارند که باعث از دور خارج شدن HDD شدند و نه تنها در حافظه رم و حافظه فلش، بلکه در فضای ذخیره‌سازی با ظرفیت‌های بسیار بالایی مانند صد پتابایت نیز از SSD استفاده می‌شوند؟

 

فن آوری و انواع SSD ها در مراکز داده

درایوهای SSD حرفه‌ای که در سرورها و مراکز داده استفاده می گردند، با درایوهای SSD کامپیوترهای رومیزی، نوت‌بوک، تبلت و مانند این‌ها تفاوت‌های اساسی دارند. این درایوها در محیط‌های با بار کاری و ترافیکی بسیار بالایی مانند پایگاه‌داده‌ها، بیگ دیتا، ایندکس و لاگ‌گیری فایل‌ها و تراکنش‌ها، تحلیل اطلاعات و آمار و ارقام و مراکزی با ترافیک صدها گیگابایت اطلاعات در هر ثانیه استفاده میگردند.

مراکز داده که به اصطلاح Enterprise SSD نامیده می‌شوند و با این برچسب در بازار به فروش می گیرند، به طور کلی با استفاده از حافظه‌های فلش NAND ساخته شده و در مقایسه با هارددیسک‌های معمولی، کارایی بیشتر و مصرف انرژی کمتری دارند. همچنین این درایوها در مقایسه با SSDهای معمولی مزایای بیشتری داشته و دارند. برای مثال، علاوه بر کارایی بسیار زیاد، برای حفاظت از اطلاعات در هنگام قطع برق، از قابلیتی به نام DRAM-Stored استفاده می‌کنند، از الگوریتم تصحیح خطا (ECC) بهره می‌گیرند، جنس بدنه مقاوم‌تر شده و سازگاری با شرایط خاص را دارند و سیستم خنک‌کنند‌گی آن‌ها متفاوت می باشد. همچنین از ضمانت‌های طولانی‌مدتی نیز بهره می‌برند.

SSD اینترپرایز به گونه‌ای طراحی می‌شود که در مقایسه با SSD معمولی، پایداری و سطح مقاومت بیشتری داشته باشد. این درایوها از نوعی حافظه فلش NAND به نام Wear-Out استفاده می‌کنند که امکان چندین بار پاک کردن و نوشتن مجدد چیپ‌ست SSD را فراهم می سازند. سازندگان SSD اینترپرایز طوری حافظه‌های NAND را با استفاده از تکنیک‌ها و الگوریتم‌هایی مانند Wear-Leveling، Self-Healing و  Over-Provisioning طراحی و تولید می نمایند که در طول زمان بر استقامت و استواری آن‌ها افزوده می شود. با استفاده از تکنیک Over-Provisionin، تعداد حافظه NAND بیشتری در درایو SSD اینترپرایز گنجانده می‌شود تا در هنگام عملیات بازنویسی چیپ‌ست یا خرابی‌ها، استفاده و جایگزین شوند.

تنوع در استفاده از انواع حافظه‌های فلش NAND و تکنیک‌های مقاوم‌سازی و افزایش ظرفیت ذخیره‌سازی، سبب شده که اکنون در بازار با طیف‌های مختلفی از درایوهای SSD مناسب مراکز داده روبه‌رو بشویم

درایوهای SSD اینترپرایز جدید که در سال‌های اخیر عرضه شده‌، از یک سطح سلولی (SLC) حافظه NAND استفاده می‌نمایند که باعث شده هر بیت در یک سلول نوشته شده در نتیجه، بیشترین سطح کارایی و پایداری با دوره زندگی (LifeCycle) نزدیک به صد هزار بار نوشتن روی هر سلول به دست آید. پیشرفت‌ها و بهبودهای چند سال اخیر در حوزه تولید حافظه‌های فلش، به سازندگان SSD این قدرت را داده اند که از انواع حافظه‌های فلش مانند Multi Level Cell (MLC) ،(TLC) Triple Level Cell و ۳D NAND در ساخت SSD اینترپرایز استفاده کنند و در نتیجه با کمترین رقم هزینه، بالاترین ظرفیت ذخیره‌سازی و پایداری را به دست آورند. تنوع در استفاده از انواع حافظه‌های فلش NAND و تکنیک‌های مقاوم‌سازی و افزایش ظرفیت ذخیره‌سازی، سبب شده که اکنون در بازار با طیف‌های مختلفی از درایوهای SSD مناسب مراکز داده روبه‌رو بشویم که هریک برای محیط‌های کاری و کاربردهای خاص طراحی و تولید شدند. برای مثال، شرکتی درایوهای SSD با ظرفیت‌های بسیار بالا تولید می‌کند که فقط مناسب استفاده در محیط‌های نرم‌افزاری و پایگاه داده‌ای با بار کاری بالا برای نوشتن و خواندن اطلاعات هستند. درایو SSD دیگری برای نوشتن کامل روی درایو در یک روز (DWPD) طراحی شده است؛ به این معنی که هر روز کل ظرفیت درایو پر شده و روز بعد دوباره از ابتدا بازنویسی و پر می‌شود و در تمام سال این فرایند تکرار خواهد شد. درایو دیگری ممکن است از فرایند ۲۵ DWPD با ظرفیت‌های بسیار کم برای پشتیبانی از اطلاعات حساس بهره برداری کند.

همان‌ گونه که درایوهای SSD حرفه‌ای از فناوری‌ها و تکنیک‌های مختلفی بهره می‌گیرند؛ در شکل و قالب و رابط کاربری مختلفی به بازار عرضه می‌گردند. رابط کاربری بیشتر این درایوها یکی از مدل‌های serial ATA (SATA)، serial-attached SCSIم(SAS) و PCI Expressم(PCI-e) برای انتقال اطلاعات به واحدهای پردازنده یا دریافت اطلاعات از آن‌ها می باشد. از نظر اندازه نیز رایج‌ترین‌ها ۵/۲ اینچی هستند که به آسانی در باکس‌های هارددیسک‌ها جایگذاری می‌شوند، اما اندازه‌های half-height half-lengthم(HHHL) با استفاده از افزودن کارت توسعه و مدل‌های M.2 که در اسلات‌های توسعه PCI-e کامپیوترهای معمولی قرار می‌دهند، در بازار یافت می‌شوند. همچنین مدل‌های DIMM نیز با چیپ‌ست و بردهای کوچک برای ارتباط با مادربرد کامپیوترهای معمولی عرضه شده‌ و مورد استفاده قرار می گیرند.

مراکز داده غرق در حافظه‌های NAND

مراکز داده غرق در حافظه‌های NAND

دلایل مهاجرت

اکنون، به نقطه‌ای رسیده‌ایم که استفاده از درایوهای SSD توجیه‌پذیر شده. این حافظه‌ها در شبکه‌های اینترپرایز و سرورها کارایی بسیار بالاتر و بهتری از خود نشان می‌دهند که بر اثر آن با پردازش حجم کاری جدیدی روبه‌رو می گردیم. همچنین این درایوها توانسته‌اند رضایت کامل کاربران نهایی را جلب نمایند و مدت زمان پاسخ‌گویی و اجرا بسیار مناسبی در شبکه‌های پرسرعت و بی‌درنگ نشان دهند. در بسیاری موارد، SSD باعث جلوگیری از خرید سرور جدید می گردد و این برای کسب‌وکارها بسیار حائز اهمیت است. چه دلایلی بهتر از این‌ها برای مهاجرت از HDD به SSD سراغ دارید؟

در چندین سال اخیر و با ورود شرکت‌های بزرگ سازنده حافظه‌های NAND به دنیای سرورها و مراکز داده، درایوهای SSD به نقطه اوج خود رسیده اند. در مقایسه با هارددیسک‌های سنتی، درایوهای جدید ذخیره‌سازی، مدت‌زمان تأخیر کمتری داشته و همچنین  SSD جدید در مقایسه با هارددیسک‌ها، حدود هزار برابر در واحد IOPS تأخیر کمتری دارند، اما توان خروجی آن‌ها سه تا پنج برابر بیشتر شده است. به همین دلیل می‌توان گفت در سال جاری میلادی، SSD به طور کامل در حال جایگزین شدن با HDD می باشد.

مراکز داده غرق در حافظه‌های NAND

مراکز داده غرق در حافظه‌های NAND

صرفه‌جویی هزینه‌ای و کارایی، تنها دلایل استقبال از SSD نیست، برخی کارهای خاص با این درایوها بسیار ساده‌تر و سریع‌تر از گذشته انجام می گردد.

بدون شک، سرورهایی که مستقیماً از درایوهای SSD به‌عنوان ذخیره‌ساز داخلی خود استفاده می‌ نمایند، سریع‌تر هستند. آشکار است که کسب‌وکارها، به سرورهای کمتری برای بار کاری و ترافیک خود نیاز خواهند داشت و در هزینه‌ها صرفه‌جویی می‌شود. علاوه بر سرعت، درایوهای SSD در طول عمر مفید سرورها نیز تأثیرگذار هستند و کمک می‌کنند سرورها بیشتر در شبکه استفاده گردند. فناوری‌ها و ابزارهای نرم‌افزاری جدید نیاز به جابه‌جایی هارددیسک‌ها با SSD را برطرف کرده‌اند و تنها با اضافه کردن دو یا چهار SSD به سرور، می‌توان به‌سادگی اطلاعات کم‌اهمیت را روی هارددیسک‌ها کپی و از آن‌ها به‌عنوان ذخیره‌سازهای جانبی استفاده نمود و در عوض، درایوهای SSD به‌عنوان حافظه‌های اصلی سیستم به کار گرفته شوند.

مراکز داده غرق در حافظه‌های NAND

مراکز داده غرق در حافظه‌های NAND

صرفه‌جویی هزینه‌ای و کارایی، تنها دلایل استقبال از SSD نیست، برخی کارهای خاص با این درایوها بسیار راحت تر و سریع‌تر از گذشته انجام می گردد. به عنوان مثال، اسکن مرتب ویدیوهای در حال ویرایش، نیازمند آرایه‌های RAID بزرگ برای کاهش تأخیر می باشند. حالا، این کار که در گذشته بسیار سخت و طاقت‌فرسا بود، به میمنت ایستگاه‌های کاری مبتنی بر SSD بسیار راحت و امکان‌پذیر شده است. همچنین عملیات‌ جست‌وجو در پایگاه‌های داده به فضاهای ذخیره‌سازی بسیار سریع نیازمند است.در دنیای تراکنش‌های مالی، درایوهای SSD باعث کاهش تأخیر دسترسی به جدول‌های مالی و در نتیجه کاهش هزینه‌های تراکنش‌ها در مقیاس مگا-دلار در هر ثانیه شده‌است.

سرورهای SSD نیز باعث نجات سرویس‌های کلاود شدند. در گذشته اولین مشکل سرویس‌های محاسبات ابری، تأخیر و نرخ خواندن I/O روی تجهیزات ذخیره‌سازی بود. سرورها نمی‌توانستند به سرعت و بی‌درنگ درخواست‌های واحدهای پردازشی گرافیکی با حجم زیادی حافظه رم را پاسخ‌گو بوده و بر حسب تقاضا بتوانند عملیات‌ را بدون تأخیر تأثیرگذار و مختل‌کننده انجام دهند. این وضعیت در سرورهای مجازی و دستگاه‌های ذخیره‌سازی محلی وخیم‌تر می‌شد. در حالی که بسیاری از شرکت‌ها راه‌حل را استفاده از تعداد زیادی HDD برای بار کاری زیاد می‌دانستند، SSD به‌راحتی این مشکل را حل نمود.

مراکز داده به تسخیر SSD درآمدند

در گذشته‌های بسیار دور، سرویس‌های کلاود گسترده‌ای مانند AWS یا گوگل از ارائه سرویس‌های ذخیره‌سازی خودداری می‌کردند و مشتریان باید به سراغ سازندگان سرورهای سنتی مانند سوپرمیکرو، لنوو، کوانتا و میتک اینترنشنال می‌رفتند تا مستقیماً و به ازای پرداخت هزینه، از فضای ذخیره‌سازی استفاده نمایند. در سال ۲۰۱۶، مراکز داده سطح متوسط بازار به راهکار جدید و به‌صرفه‌ای دست پیدا نمودند. این مراکز داده به سراغ سازندگان سرور ODM رفتند تا از درایوهای SSD در سیستمشان استفاده کنند. در این حالت و با SSD، هزینه هر یک ترابایت حدود ۳۰۰ دلار ‌می‌شد، اما هزینه یک ترابایت هارددیسک SAS روی سرورهای دل، حدود ۷۰۰ دلار خرج دارد. حتی اگر شرکت‌های ODM سرور، از SSD استفاده کنند، ۹۶۰ گیگابایت فضای ذخیره‌سازی روی SSD حدود ۵۳۳ دلار هزینه دارد که باز هم در مقایسه با ۳۰۰ دلار هزینه زیادی است. این قیمت‌ها داستان بی‌اساس گران‌تر بودن SSD را به چالش می‌کشاند. در گذشته، هرگاه از شرکت‌های ODM درباره اینکه چرا امکان استفاده از SSD را فراهم نمی‌کنند سؤال می‌شد، پاسخ می‌دادند که بسیار گران‌تر از هارددیسک‌های سنتی هستند و به‌خصوص در سرورها و مراکز داده که حجم زیادی از ذخیره‌سازی اطلاعات دارند، این گران‌تر بودن گاهی چندین برابر می‌شود. این تصور ما زمانی درست است که SSD را از شرکت‌های سازنده آرایه‌های ذخیره‌سازی تهیه نمایید؛ از آنجا که این شرکت‌ها، درایوهای SSD را بر اساس معماری خودشان تغییر می‌دهند، آن را گران‌تر می‌فروشند، اما وقتی درایو SSD خامی را از بازار تهیه کنید، حتی ارزان‌تر از سیستم‌های ذخیره‌سازی سنتی مبتنی بر هارددیسک خواهد بود.

کارشناسان شبکه‌های کامپیوتری و مراکز داده قبول کرده اند که در این حوزه و بازار، کارایی SSD بهتر از HDD بوده و عملکرد بهتری داشته و بهتر است در تجهیزات ذخیره‌سازی، حافظه‌های رم، حافظه‌های فلش ابررایانه‌ها و حافظه‌های جانبی، از درایوهای SSD استفاده نمایند.

مراکز داده غرق در حافظه‌های NAND

مراکز داده غرق در حافظه‌های NAND

موضوع بعدی درباره SSD، به طول عمر کارایی مؤثر آن بازمی‌گردد. در گذشته، این باور اشتباه وجود داشت که طول عمر مفید حافظه‌های فلش کمتر از هارددیسک‌ها است، ولی امروزه ثابت شده طول عمر مفید SSD پنج سال است؛ در حالی که حافظه فلش MLC فقط چهار سال عمر می‌‌کند. اگر دوره تازه‌سازی سرور ۳۶ ماه باشد، قالب حافظه‌های فلش بیشتر از این دوره عمر خواهند کرد و بنابراین دلیلی برای استفاده نکردن از آن‌ها در سیستم سروری یا مراکز داده وجود ندارد.

همین دلایل باعث شده رقابت شدیدی میان عرضه‌کنندگان SSD برای سرورها و مراکز داده به وجود آید و شرکت‌های بزرگی مانند سامسونگ، دل، اینتل، آی‌بی‌ام، سوپرمیکرو، سن دیسک، میکرون و مانند این‌ها، در دو سال اخیر چندین نوع حافظه فلش و SSD به طور اختصاصی برای استفاده در سرورها و مراکز داده وارد بازار نمایند و هریک در تلاش باشند فناوری‌های پیشرفته‌ای را به کار بگیرند تا هم سرعت افزایش پیدا کند، هم حجم فیزیکی کاهش پیدا نماید، هم ظرفیت بیشتر شود و در نهایت قیمت تمام‌شده برای هر گیگا – دلار کمتر گردد.

چرا کارایی SSD بهتر از HDD است؟

مدیران  شبکه‌های کامپیوتری و مراکز داده پذیرفته‌اند که در این حوزه و بازار، کارایی SSD بهتر از HDD بوده و بهتر است در تجهیزات ذخیره‌سازی، حافظه‌های رم، حافظه‌های فلش ابررایانه‌ها و حافظه‌های جانبی، از درایوهای SSD استفاده کنند. اما چرا کارایی SSD بهتر از HDD است؟

نخست اینکه SSD محدودیت‌های سیستم‌های RAID را پوشش می‌دهد. قالب کنترلرهای RAID در پیکربندی RAID 5 از نظر سرعت دچار تنگناهایی می‌شوند که درایوهای SSD این مشکل را برطرف می‌کنند. چون این درایوها سریع بوده و برای مثال چهار SSD در کنار یکدیگر می‌توانند خروجی برابر با ۶/۱ گیگابایت IOPS را ارائه نمایند، بنابراین  از هر موتور کنترلر RAID XOR سریع‌تر هستند. در این شرایط، موتورهای RAID بهتر می‌توانند کارها را پیش برده و با کمک پردازنده‌ها، وقفه‌های رخداده را نیز رفع نمایند. هنگامی که از درایوهای SSD در سیستم‌های ذخیره‌سازی استفاده می‌شود، بهتر است برای محافظت از اطلاعات، پیکربندی‌های RAID 1 یا RAID 10 انتخاب گردند.

دوم، اگر نیازهای ظرفیتی ذخیره‌سازی سرورها را مد نظر بگیریم، متوجه خواهیم شد که درایوهای SSD در مقایسه با HDD انتخاب بهتری می باشند. نرم‌افزارهای تست و ارزیابی عملکرد نشان می‌دهند درایو SSD با ظرفیت ۱۲۸ گیگابایت، در مقایسه با هارددیسکی با ظرفیت ۵۰۰ گیگابایت و قیمت ۱۵۰ دلار، کارایی بسیار بیشتری دارد. بنابراین، اگر نیازهای ظرفیتی ذخیره‌سازی سرور در حدود ۱۲۸ گیگابایت است، دلیلی وجود نخواهد داشت که به دنبال خرید هارددیسک ۵۰۰ گیگابایتی برویم.

آینده

شرکت‌هایی مانند «اینتل» و «سامسونگ»، در حال توسعه حافظه‌های فلش ۳D NAND هستند و در تلاش هستند ظرفیت ذخیره‌سازی روی Die را افزایش دهند. اینتل با همکاری میکرون توانسته روی یک Die ظرفیت ۴۸ گیگابایت، اطلاعات را با ساختار ۳۲ لایه‌ای از سلول‌‌های ۳D NAND ایجاد نماید که در نتیجه آن شاهد عرضه درایوهای SSD حرفه‌ای با ظرفیت چند ترابایت خواهیم بود. پیش‌بینی شده در سال ۲۰۱۸ درایوهایی مناسب مراکز داده با ظرفیت‌های ده ترابایت ساخته گردند. از سوی دیگر، بازدهی هارددیسک‌های معمولی کمتر از حافظه‌های فلش NAND می باشد و در راهکارهای ذخیره‌سازی مبتنی بر هارددیسک‌ها، در حال حذف شدن از سرورها و مراکز داده می باشند. اما در برخی مراکز داده حجم‌های ذخیره‌سازی بسیار وسیعی با هارددیسک‌ها ساخته شده است که به این زودی‌ها امکان جایگزینی با حافظه‌های فلش NAND را نداشته و ندارند. بر همین اساس، کارشناسان پیش بینی کرده اند تا پنج سال آینده رویکرد استفاده هم‌زمان از هارددیسک‌ها و درایوهای SSD وجود داشته باشد تا درایوهایی با استفاده از حافظه فلش، اما در ظرفیت‌های بسیار بالاتر ساخته شود که بتوان آن‌ها را در سیستم‌های قدیمی بسیار گسترده به کار گرفت و مورد بهره برداری قرار داد.

نکاتی خاص برای انتخاب SSD حرفه‌ای مراکز داده

نکاتی خاص برای انتخاب SSD حرفه‌ای مراکز داده

مدیران ارشد شبکه باید بین نیازهای ظرفیت و سرعت بیشتر، پایداری کل سیستم و تجهیزات ذخیره ‌سازی قدیمی تعادل برقرار نمایند و به همین خاطر است مه با انتخاب‌های سخت‌تری روبه‌رو هستند. همچنین، این انتخاب‌ها فقط بر اساس یک محصول ویا کالا نیست، بلکه باید راهکار مناسبی گزینش شود. در ادامه به پنج نکته اشاره مختصری خواهیم نمود که مدیران شبکه را در انتخاب SSD مناسب یاری می‌کنند.

۱-نیازمندی‌های برنامه‌های کاربردی شبکه تان را بررسی نمایید

کسانی که فکر می‌کنند SSD فقط یک SSD است، سخت در اشتباه بزرگی هستند. در دنیای امروزه، درایوهای SSD گوناگونی برای انجام کارهای بسیار متنوع‌ ساخته و طراحی شده است. در واقع هر SSD، روش منحصربه‌فرد خود را برای سروسامان دادن به درخواست کاری دارد. ممکن است یک مدل SSD برای بار کاری خواندن اطلاعات طراحی و بهینه شده و مناسب باشد و در سیستم‌های کلاینت-کلاس مناسب کار کند. برعکس، ممکن است مدل دیگر SSD برای محیط‌های مبتنی بر نوشتن اطلاعات طراحی و ساخته شده باشد. بنابراین بسیار حائز اهمیت است که برآورد و نگرش درستی از نیازمندی‌های برنامه‌های کاربردی نصب‌شده روی سرورها و مراکز داده خود داشته باشید و بدانید قرار است چه عملیاتی روی درایوهای SSD انجام شود. اگر بدون داشتن چنین اطلاعاتی به پرس و جو در بازار بپردازید، ممکن است مدلی را خریداری کنید که پاسخ‌گوی نیازهای شما نباشد و در آینده با مشکل روبرو شوید.

 نکاتی خاص برای انتخاب SSD حرفه‌ای مراکز داده

نکاتی خاص برای انتخاب SSD حرفه‌ای مراکز داده

۲- به هزینه TCO دقت کنید؛ نه قیمت محصول

قبل از خرید، بهتر است کمی وقت صرف کنید و کل هزینه های به کارگیری درایوهای SSD را که شامل هزینه خرید، استقرار، نگهداری و پشتیبانی، خنک‌کنندگی، به‌روزرسانی، تعویض و هزینه‌های مرتبط دیگر مربوط می شوند را محاسبه کنید. بعضی از افراد فقط هزینه خرید SSD را در نظر گرفته و هر راهکار یا محصولی را که ارزان‌تر باشد، انتخاب و خرید می‌کنند. اما ممکن است این افراد به زودی پشیمان شده، چون هزینه‌های دیگری که مرتبط با این نوع درایوهای ذخیره‌سازی می باشند در طول زمان بیشتر شود. برای مثال، عمر مفید یک SSD کمتر از چیزی باشد که تصور می‌کنید. ابزارهایی برای محاسبه هزینه TCO ارائه شده است که کار شما را آسان‌تر می‌کند.

۳- $/TBW به جای $/GB

در زمان گذشته وقتی قصد داشتیم هارددیسک انتخاب نماییم، هزینه یک گیگابایت فضای ذخیره‌سازی را محاسبه می‌نمودیم و بعد تصمیم می‌گرفتیم. اما برای انتخاب یک SSD اینترپرایز، این دیدگاه غلط می باشد و باید با دیدگاه هزینه نوشتن روی هر یک‌ ترابایت اطلاعات، جایگزین شود؛ چراکه در سیستم‌های ذخیره‌سازی گسترده، میزان عملیات نوشتن در هر سال اهمیت بسیار زیادی دارد و هر درایو SSD که بتواند از نظر نوشتن طول عمر بیشتری داشته باشد، به‌صرفه‌تر می باشد. وقتی $/TBW  را محاسبه می‌کنید، ممکن است به نتایج شگفت‌انگیزی برسید و متوجه می شوید SSD ارزان در $/TBW گران است، چون طول عمر مفید نوشتن آن زود تمام می‌شود و باید با SSD دیگری جایگزین آن کنید.

۴- خنک و بی صدا

مصرف انرژی و خنک‌ سازی ذخیره‌ساز از برجسته ترین نکات در انتخاب و خرید این دستگاه‌ها می باشد. معیاری که باید به آن توجه نمایید، IOPS/Watt است. هدف این می باشد که بیشترین توان خروجی را با کمترین میزان مصرف انرژی به دست آورید. اگر یک SSD با مصرف انرژی زیاد خریداری کنید، هزینه‌های سربار شما در طول چند سال، چندین برابر خواهد شد. تمام درایوهای SSD در بهترین حالت مصرف انرژی، خنک‌کنندگی و توان خروجی ساخته نشده‌اند و به همین دلیل باید به دنبال انتخاب درایوی باشید که در معیار IOPS/Watt جزء بهترین‌ها و ایده آل ها باشد. چنین درایوی قادر است تا ۸۰ درصد هزینه‌های مصرف انرژی و خنک‌کنندگی را کاهش دهد.

۵- تأخیر

مدیران فناوری اطلاعات و شبکه برای خرید SSD، ابتدا به مزایا و کارایی آن برای استفاده در سیستمشان و برنامه‌های کاربردی آنها توجه می نمایند. گاهــی زمــــان تأخیر SSD، تمام این تفاوت را نشان می‌دهد. وقتی موضوع تأخیر را بررسی می‌نمایید، بسیار حائز اهمیت است که معیارتان چیزی فراتر از حد متوسط بازار قرار دهید. همچنین باید بررسی نمایید که این تأخیر فقط محدود به همان SSD می‌شود یا به کل آرایه درایوهای ذخیره‌سازی منتقل خواهد شد و در نهایت چه مقدار ‌زمان تأخیری به وجود خواهد آمد. گاهی تأخیر SSD بسیار کم بوده، اما در سیستم شما تبدیل به مشکلی بزرگ خواهد بود. مدت زمان متوسط پاسخ‌گویی را نیز در نظر داشته باشید.

==============================

سوئیچ های یک مولکولی جهش در کامپیوترهای نوری

دانشمندان به دلایل کاملا شفافی خود را در زمینه الکترونیک نوری درگیر نموده‎اند: نور سریع‎تر از الکتریسیته حرکت می‎کند، و این به این معنا می باشد که می‎توان محاسبات را سریع‎تر انجام داد. به گفته Scientific American، کوچک‎تر شدن وسایل و قطعات نیز باعث افزایش بیشتر این سرعت می‎شود که برای سیستم‎هایی نظیر پنل‎های خورشیدی، سنسورهای نوری یا کاربردهای زیست پزشکی بسیار مفید و سودمند خواهد بود.

تلاش‎هایی که گذشته انجام شده برای ساخت این تجهیزات تک مولکولی نتایج مثبتی به همراه نداشته است، که از جمله می توان به سوئیچ‎هایی که در موقعیت روشن گیر می‎کردند و یا قادر نبودند توسط انواع مختلف نور فعال شوند. محققان دانشگاه پکینگ از مواد متفاوتی برای انجام این کار استفاده کرده‎اند که به یک سوئیچ اجازه می‎دهد با ثبات کامل  توسط نور در هر دو موقعیت باینری (صفر و یک) عمل کند.

سوئیچ های یک مولکولی جهش در کامپیوترهای نوری

سوئیچ های یک مولکولی جهش در کامپیوترهای نوری

این سوئیچ می‎تواند به مدت یک سال دوام داشته باشد که نسبت به تلاش‎های اولیه پیشرفت قابل ملاحظه‎ای محسوب می‎شود. ایان بالدیا از دانشگاه هایدلبرگ آلمان به Scientific American گفت که در بسیاری از موارد، ارتباطات مولکولی تنها برای لحظات، ساعات و در شرایط مطلوب برای چند روز باقی می‎مانند. اگرچه هنوز چند سالی باقی مانده تا ما بتوانیم شاهد حضور چنین سوئیچ‎هایی در قطعات تجاری باشیم، اما انجام چنین کارهایی گام بزرگی برای ساخت تجهیزات باثبات در مقیاس میکروسکوپی و ریز قطعات محسوب می‎شود.

 

چرا به پردازنده ۱۰۰۰ هسته ای نیاز داریم؟

چرا به پردازنده ۱۰۰۰ هسته ای نیاز داریم؟

در هفته جاری شاهد معرفی پردازنده‌ی بسیار کم مصرف با ۱۰۰۰ هسته‌ی پردازشی بودیم. اما پردازنده‌‌ی ۱۰۰۰ هسته‌ای در چه زمینه‌ای استفاده می‌شود و به چه دلیل باید تعداد زیادی هسته برای پردازنده داشته باشیم؟ با نتکو باشید.

قانون مور که بیان می‌کرد تعداد ترانزیستورها در پردازنده‌ها هر دو سال دو برابر می‌شود، چندان پایدار نبوده و تولیدکنندگان قادر نشدند که در مساحت یکسان، پردازنده‌هایی با دو برابر ترانزیستور بیشتر نسبت به ۲ سال قبل تولید کنند، حتی اگر این امکان وجود داشته باشد، افزایش ترانزیستورها به این معنی که افزایش دو برابری سرعت اجرای اپلیکیشن‌ها نخواهد بود. در این راستا برنامه‌نویسی معروفی به نام هرب ساتر، در یک مقاله‌ی مفصل در سال ۲۰۰۴ پیش‌بینی نمود که افزایش سرعت کلاک CPUها به حداکثر رسیده است و افزایش فرکانس نیز نمی‌تواند چندان در افزایش سرعت اجرای اپلیکیشن‌ها، موثر واقع گردد.

 

در عوض در دنیای GPUها یا پردازنده‌های گرافیکی، ترانزیستورها به جای اینکه تعداد محدودی هسته را تشکیل دهند، چندین هسته را تشکیل می‌دهند و پردازش موازی این هسته‌ها باعث شاهد رشد چشم‌گیر نسل‌های مختلف کارت‌های گرافیک نسبت به نسل‌های قبلی باشیم. به عنوان مثال در کارت گرافیک جدیدِ GeForce GTX 1080 از انویدیا شاهد بکارگیری ۲۵۶۰ هسته می باشیم که با فرکانس ۱۶۰۰ تا ۱۷۰۰ مگاهرتز کار می‌کنند. برنامه نویس‌ها و developerها نیز نرم‌افزارهایی ساخته‌اند که به بخش‌های کوچک تقسیم می‌شود تا توسط این GPUها پردازش شود. بازی‌ها یا نرم‌افزارهای علمی از این دسته هستند که عموما پردازش مربوط به آن‌ها توسط GPU انجام می‌شود.

چرا به پردازنده ۱۰۰۰ هسته ای نیاز داریم؟

چرا به پردازنده ۱۰۰۰ هسته ای نیاز داریم؟

اما در دنیای امروزی، اکثر نرم‌افزارها تنها با یک Thread اجرا می‌شوند و به همین دلیل است که تغییری در سرعت اجرای آن‌ها با یک پردازنده‌ی ۴ هسته‌ای و همان پردازنده با یک هسته وجود ندارد. قسمتی از این مشکل به دلیل ضعف نرم‌افزارها است که جوری برنامه نویسی نشده‌اند که از تمام توان پردازنده‌ها و هسته‌ها استفاده کنند. از طرفی برخی از دستورات نیز آنقدر پیچیده هستند که به راحتی نمی‌توان آن‌ها را به چندین بخش کوچک تبدیل کرد.

تبدیل ترانزیستورهای بیشتر به نرم‌افزارهای سریع‌تر، روز به روز سخت و دشوار می‌شود

 

با این حال، به احتمال زیاد در آینده، پردازنده‌ها به هسته‌های ضعیف‌تر اما بسیار بیشتر مجهز خواهند شد؛ چرا که سرعت پردازشِ پردازنده‌ها با روش فعلی به کندی افزایش می‌یابد و چاره‌ای جز اضافه کردن تعداد هسته‌ها نیست. به همین دلیل است که خبر ساخت پردازنده‌ی ۱۰۰۰ هسته‌ای مهم و خبرساز می‌شود.

 

معماری تراشه‌ها به نوعی عجیب و بسیار پیچیده است و اگر تعداد هسته‌ها را در پردازنده‌ها افزایش دهیم شاید مجبور شویم که کل ساختار کامپیوترها را تغییر دهیم. در پردازنده‌ها، هر کدام از هسته‌ها تقریبا فضای مستقل و جداگانه‌ی خود را دارند و هسته‌ها از طریق شبکه‌ی داخلی خود با یکدیگر ارتباط ساختاری برقرار می‌کنند. به همین دلیل است که کار برنامه‌نویس‌ها برای استفاده از تمام توان هسته‌ها دشوار می‌شود. در همین راستا ایده‌های مختلفی مطرح شده است که شاید جذاب‌ترین آن‌ها معماری KiloCore است که بکار گیری از ۶۴ هسته در پردازنده را ساده‌تر می‌کند. مهم‌ترین برگ برنده‌ی کیلوکور در مصرف بهینه‌ی انرژی است. تیم UC Davis بیان می کند که کیلوکور تا ۱۰۰ برابر مصرف بهینه‌تری از پردازنده‌ی لپ‌تاپ‌های مورد استفاده شده در حال حاضر را دارد. یک پردازنده با این معماری حتی با یک باتری قلمی نیز کار می‌کند.

 

در نتیجه برای آنکه شاهد پردازنده‌های قوی‌تر، سریع‌تر و کم‌مصرف‌تری باشیم احتمالا باید بدنبال طراحی CPUهای شبیه به GPU با هسته‌های زیاد باشیم. پردازنده‌هایی که تعداد هسته‌ی زیاد با فرکانس پایین‌تر دارند و قادر به پردازش موازی تعداد زیادی عملیات کوچک هستند. اما برای رسیدن به کامپیوترهای سازگار به این نوع پردازنده‌ها، راه پر و پیچ و خم و دشواری پیشِ رو است و باید تولیدکنندگان سخت‌افزار و نرم‌افزار عزم خود را جزم نمایند.

فناوری NFC

فناوری NFC

همیشه برقراری ارتباط بین تجهیزات دیجیتالی پیچیده نیست گاهی فقط کافیست اونها رو کنار هم قرار بدیدن. امروز با توجه به دستگاه های بیشتری که هر روز وارد بازار میشه، میخواهیم بیشتر راجع به مزایا و معایب این فناوری بگیم و اینکه این فناوری تا چه اندازه توی تجهیزات دیجیتالی امروزی، مصرف داشته.

NFCیه پروتکل است که برای انتقال با برد کوتاه در حد چند سانتیمتره، این پروتکل یه شکل پیشرفته تر از تکنولوژی RFID محسوب میشود. با این تفاوت که فناوری RFID  یک ارتباط یک طرفه می باشد، که در آن همیشه یک فرستنده که غالبا شبیه یک برچسب می باشد،که اطلاعات رو ارسال میکنه و یک دستگاه هم که نقش گیرنده رو ایفا میکند میتونه اطلاعات روی اون برچسب رو دریافت بکنه.

 

اما فناوری NFC میتونه یه ارتباط دو سویه باشه، یعنی فرستنده و گیرنده بسته به نیاز کاربر، میتونند نقش هاشون رو با هم عوض کنند.

هر دو فناوریNFC  و  RFIDبسیار به هم شبیه هستن ولی RFIDپیش از  NFC طراحی شده و به همین دلیل شهرت بیشتری نسبت به  NFCدارد.

طراحی این برچسب ها کار آن چنان دشواری نیست. مسیر انتقال هم، موج کوتاه رادیوی است.

در عین حال فرستنده به نحوی تنظیم میشود که اطلاعات اون توسط RFID readerیاNFC reader خونده بشه.در فناوری NFCبه تازگی برچسب هایی طراحی شدن که از میدان مغناطیس برای فعال سازی و ارسال اطلاعات استفاده میکنن.البته خیلی ها هم، فناوری NFC رو با بلوتوث مقایسه می کنن.ولی باید گفت هر کدوم از این فناوری ها کاربرد مخصوص خودشون رو دارن، و تفاوت زیادی بین اونها وجود داره.

ولی NFC کجاها کاربرد داره؟ و آیا فکر میکنید تا به امروز از این تکنولوژی  استفاده کردید یا نه؟

کاربردهای NFCبه سه دسته تقسیم میشه: اولانتقال اطلاعات: مثل زمانی که فایلی رو از یک گوشی به گوشی دیگه منتقل میکنیم.دوم هماهنگی: مثل زمانیکه اطلاعات شبکه ایکه بهش متصل هستیم رو عینا به گوشی یا دستگاه دیگه ای منتقل میکنیم.وسومداد و ستد:که به همه ی تراکنش های مالی مربوط به خرید و فروش اطلاق میشه.

بهتره کاربردهای NFCرو با چند مثال در زندگی روزمره بگیم. شما از مکانیزم آژیرهای ضد سرقت در فروشگاه ها مطلع هستید؟ خیلی از فروشگاه ها برای جلوگیری از سرقت کالاهاشون از همین فناوری استفاده میکنند.

تا حالا به گیره های متصل به اجناس فروشگاه ها توجه کردید؟ این گیره ها میتونه حاوی همون برچسب های RFID یا حتیNFCباشه.اگر پول کالایی که توسط مشتری انتخاب شده قبلا توی صندوق پرداخت نشده باشه این برچسب ها اطلاعات عدم خرید کالا توسط مشتری رو به دستگاه های آژیر فروشگاه ارسال میکنند.

شاید شما شاغل باشید و هر روز برای ورود به محل کاری تون از کارت های پرسنلی استفاده میکنید تا به حال به سیستم شناسایی این کارت ها دقت کردید ؟ برای شناسایی این کارت ها، معمولا باید اونها رو در فاصله ی چند سانتیمتری از دستگاه قرار داد . بعد از اینکه دستگاه اطلاعات هویتی صاحب کارت رو شناسایی کرد لحظه ی ورود و یا خروج در حافظه ی دستگاه ثبت میشه.معمولا این کارت ها هم میتونند از فناوری nfc استفاده میکنند.

اما سایر کاربردها چی میتونه باشه؟به طور کلی، از طریق این فناوری میشه هویت یک شخص یا جسم رو تشخیص داد!

حتی اگهی های استخدام هم میتونن مجهز به این سیستم باشن، کافیه متقاضی، گوشی تلفن خودش رو نزدیک اگهی استخدام ببره تا اطلاعاتش روی میکرو چیپ آگهی ثبت بشه، حالا کارفرما میتونه با توجه به اطلاعاتی که از افراد متقاضی به دست آورده، کارمند مورد نظر خودش رو انتخاب و با اون تماس بگیره.

یکی از کاربردهای این فناوری میتونه استفاده به عنوان کارت گارانتی باشه، با نصب برچسب های NFC میشه به راحتی زمان خرید و اطلاعات مشتری رو روی وسایل ثبت کردو مشتری میتونه با نزدیک کردن تلفن همراه خودش اطلاعات رو روی گوشی ببینه.

خوندن بروشور کالاهای مجهز به برچسب های NFC، باز و بسته کردن قفل ها فقط برای افراد مجاز ، ارسال کارت ویزیت و موارد اینچنین، میتونن همگی از کاربردهای این پروتکل باشن.ولی یکی از بحث های چالش برانگیز استفاده از این فناوری، زمانیکه صحبت از تراکنش های مالی میشه.

میتونیم به راحتی اطلاعات حساب بانکی رو به دستگاه همراهی که مجهز به NFC هست، منتقل کرد دیگه بعد از اون نیازی به کارتهای عابر بانکی نیست، کافیه که دستگاهتون رو که میتونه تلفن همراه، تبلت، دستگاه MP3 Playerویا حتی ساعت مچیتون باشه رو به NFC reader فروشگاه نزدیک کنید تا تراکنش های مالی، بعد از تشخیص هویت و اطلاعات بانکی مشتری ،با مجوز خریدار ،به راحتی صورت بگیره.

فناوری NFC

فناوری NFC

ولی چرا چالش بر انگیزه؟خوبهرجا که صحبت از مباحث مالی باشه، انگیزه ی افراد سودجو هم برای سو استفاده بالاتر میره! اینجاست که لازم میشه تا معایب و نقاط ضعف این فناوری بیشتر و دقیق تر بررسی بشه.یکی از بزرگترین اشکالاتی که میتونه برای این فناوری ایجاد بشه sniff(اسنیف) یا شنود غیر مجازه. یعنی افرادی بدون مجوز به اطلاعاتی که بین دو دستگاه رد و بدل میشه، دسترسی پیدا کنند و از اون بدتر میتونه،امکان تغییر این اطلاعات و ارسال اطلاعات ناسالم به گیرنده باشه.ولی اشکال دیگه ای که به راحتی ایجاد میشه تخریب و از بین بردن کامل سیگنالهای ارتباطیه این پروتکله. NFC forum اسم یهمجمعیه که توسعه این پروتکل و وضع استاندارهای اون رو به عهده داره.

و اما پاسخ این مجمع در مقابل نقاط ضعف این فناوری تا به امروز چی بوده؟

اعضای این مجمع معتقدند که حفظ امنیت در استفاده از این پروتکل، به عهده ی فردیه که از اون استفاده میکنه. ولی شاید بهتر این بود که از ابتدا، استفاده از استاندارد های انتقال اطلاعات، روی این پروتکل اعمال میشد و اطلاعات از کانال امنی منتقل میشدند.

در حال حاضر چنانچه از این فناوری در تراکنش های مالی استفاده بشه رمز گذاری باید از طرف بانک مقصد روی اطلاعات کارت NFC و تجهیزات دیجیتالیه مجهز به  NFC ی کاربر قرار گرفته باشه ، ولی چنانچه بانک ها این رمز نگاری رو روی اطلاعات مشتریان خودشون قرار نداده باشند به راحتی اطلاعات بانکی افراد مورد سودجویی قرار میگیرهو تازه باز هم باید امیدوار بود تا فروشندگان هم، از ارسال اطلاعات بصورت رمز شده استفاده کنند.خوب شاید بهتر بود این مجمع استاندارد رمز نگاری SSL رو از ابتدا خودش روی این پروتکل اعمال میکرد.

ولی درعین حال اعضای این مجمع اعلام میکنند که برد انتقال اطلاعات از طریق  NFC رو در حد چند سانتی متر کاهش داده اند. و معتقدند که کاهش فاصله در انتقال اطلاعات به کمتر از ۱۰ سانتی متر یک تمهید در برابر شنودهای غیرمجاز محسوب میشه.در حالی که با تجهیزات پیشرفته و تقویت کننده، امکان شنود برای افراد غیر مجاز در فاصله های دورتر هم امکان پذیره.

ولی در عین حال با توجه به معایب و محاسن این تکنولوژی، باید به این نکته اشاره کنیم که اغلب فروشنده ها تمایل زیادی دارند تا مشتریانشون از این تکنولوژی برای پرداخت های خودشون استفاده کنند.چرا که از این طریق میشه یه سری اطلاعات تبلیغاتی رو برای مشتری ارسال کرد و در عین حال سلایق خرید مشتری هم به راحتی ثبت میشه.

ولی دنیای دیجیتال آینده تا چه اندازه از این فناوری استقبال میکنه؟

هر روز شاهد گجت ها و ابزارهایی هستیم که از فناوری NFCبهره میبرند. به عنوان مثال شرکتی،ماوس کنترل از راه دوری رو با استفاده از این فناوری طراحی کرده به نحوی که برای معرفی ماوس به کامپیوتر تنها کافیه اون روروی کامپیوتر مجهز به nfc قرار بدید تا بلافاصله ماوس توسط کامپیوتر شناسایی بشه.

در همین رابطه پریزهای برقی مجهز به همین فناوری طراحی شده به نحوی که اگر شما بیرون از خانه مشغول شارژ دستگاه دیجیتالی خودتون باشید، هزینه ی استفاده از برق از حساب شما کسر میشه. روش کار هم چندان پیچیده نیست این پریز های با استفاده از nfcبه اطلاعات حساب بانکی مصرف کننده برق متصل شده و بنا به میزان استفاده ی کاربر، هزینه از حساب بانکی مشتری کسر میشه.

فناوری NFCتوی دنیای پرینترها هم نفوذ کرده، یک شرکت کره ای با پشتیبانی از همین فناوری تونستهپرینتر جیبی ای رو طراحی کنه.

به نحوی که کافیست عکس مورد نظر خودتان را بر روی گوشی تلفن همراه  خود انتخاب کنید و بعد از نزدیک کردن گوشی به پرینتر به آسانی  یک نسخه کاغذی از تصویر مورد نظرتان را میتوانید از پرینتر دریافت کنید.

با توجه به معایب و مزایایی که این تکنولوژی به همراه داره خیلی ها معتقدند که این پروتکل به شکل فعلی نمیتواند موفق باشد و تغییر در اون لازم و ضروری می باشد، ولی عده ای همچنان از طرفداران این تکنولوژی هستند و معایب اون را چندان پر اهمیت نمیدونند. و در حد قابل قبولی کامل می دانند.

 

خرید سرور DL 380 G8 G9 HP


خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380DL 380

اطلاعات درایو ویندوز را به SSD انتقال دهیم؟

اطلاعات درایو ویندوز را به SSD انتقال دهیم؟

راه حل این کار ساده است و کاربران ویندوز می‌توانند با تعداد محدودی قطعه‌ی سخت‌افزاری و برنامه‌ی نرم‌افزاری از HDD به SSD مهاجرت کنند. کل این عملیات تنها ۱۵ دقیقه طول می‌کشد و پس از آن چند ساعت انتظار لازم است تا این پیاده‌سازی انجام شود.

موارد مورد نیاز برای مهاجرت از HDD به SSD

برای این مهاجرت نیاز به اجزای زیر است:

  •  یک درایو حالت جامد SSD که حداقل ۳۲ گیگابایت فضای ذخیره سازی داشته باشد. البته بیشتر توصیه می‌شود که ظرفیت آن ۶۴ گیگابایت یا بیشتر باشد.
  • استفاده از یک درایو پشتیبان که می‌تواند هارد اکسترنالی با ظرفیت بیشتر از HDD میزبان باشد.
  •  استفاده از نرم‌افزار Macrium Reflect Free Edition (لینک دانلود نرم‌افزار)
  • یک فلش یو‌اس‌بی فرمت شده یا یک سی دی یا دی‌وی‌دی خام.

چه نوعی از SSD را باید خریداری کنید؟

در حال حاضر SSD درایوهای ساتا (SATA)، M2 و مینی- پی‌سی‌آی  (Mini-PCIe) از انواع SSD رایج در بازار هستند. در وهله‌ی اول انتخاب نوع آن‌ها ممکن است گیج‌کننده به نظر بیاید. اما تقریبا اکثر لپ‌تاپ‌ها با استاندارد ساتا سازگاری دارند. در مورد اولترابوک‌ها استاندارد M2 قابل قبول است و تعداد محدودی از نوت بوک‌های قدیمی هم با مینی- پی‌سی‌آی هماهنگ هستند. احتمالا لپ تاپ شما در بیشتر قسمت‌ها از یک اتصال ساتا استفاده می‌کند.

 

درایوهای ساتا در تمام لپ تاپ‌ها عرضی به اندازه‌ی ۲.۵ اینچ دارند و ضخامت آن‌ها بین ۷ تا ۹ میلی‌متر متغیر است. نکته‌ای که در ادامه لازم است بدانید این که تمام SSD‌های ۷ میلی‌متری با اتصال ساتا در لپ‌تاپ سازگار هستند. اما اتصال SSD با اندازه‌ی ۹ میلی‌متر تنها می‌تواند به دستگاهی متصل شود که اتصال آن هم ۹ میلی‌متری باشد.

گام اول: نصب Macrium Reflect

در مهاجرت به SSD با سه بخش مختلف نرم‌افزاری سر و کار داریم؛ نخست برنامه‌ای که یک نسخه‌ی پشتیبان از اطلاعات فعلی را تهیه کند. دوم برنامه‌ای که حجم این اطلاعات را کاهش دهد و در نهایت برنامه‌ای که اطلاعات کپی شده را به SSD انتقال دهد. برنامه‌ی Macrium Reflect می‌تواند هر سه عملیات را با هم انجام دهد. این برنامه با ایجاد یک نسخه‌ی پشتیبان از ‌هارد میزبان، حجم اطلاعات را کاهش داده و سپس آن‌ها را به SSD انتقال می‌دهد. پس اولین کار نصب این نرم‌افزار است.

روند نصب این نرم‌افزار ساده و راحت است. پس از دانلود برنامه، روی فایل RsflectDL.exe دو بار کلیک می‌کنیم. فایل در حال اجرا، Macrium Reflect را دانلود و سپس نصب می‌کند. روی گزینه‌های Next پشت سر هم کلیک کنید و شرایط مجوز نرم‌افزار را Accept کنید.

برای نصب و دانلود فایل‌های Windows PE گزینه‌های پیش‌فرض را انتخاب کنید. فرآیند دانلود ۵۳۰ مگابایت داده حدود ۱۰ دقیقه طول می‌کشید. پس از آن Reflect یک نسخه از Windows PE قابل بوت را ایجاد می‌کند.

1

در این مرحله باید یک فلش یو‌اس‌بی (یا دی‌وی‌دی خام) و یک هارد اکسترنال را به سیستم متصل کنید. سپس Macrium Reflect اجرا می‌شود.

در اینجا مطمئن شوید که نسخه‌ی قابل بوت در مسیر فلش یا دی‌وی‌دی ذخیره می‌شود. به خاطر داشته باشید که اطلاعات بازیابی شده تنها روی سیستمی که در آن ذخیره شده‌اند قابل اجرا هستند.

2

پس از ایجاد برنامه‌ی قابل بوت، لازم است فایل‌های اضافی خود را حذف کنید. چرا که فضای SSD اغلب کمتر از HDD است. ویندوز ۱۰ به تنهایی ۱۶ گیگابایت فضا در نسخه ۳۲ بیتی و ۲۰ گیگابایت فضا در نسخه‌ی ۶۴ بیتی اشغال می‌کند.

گام دوم: حذف فایل‌های غیر ضروری

در این مرحله نیاز دارید تا اندازه‌ی فایل‌های موجود در HDD را کاهش دهید تا در فضای SSD جا شوند. برای مثال اگر فضای SSD شما ۱۲۰ گیگابایت است و HHD سیستم شما ۲۰۰ گیگابایت فضا دارد، باید ۸۰ گیگابایت از اطلاعات خود را پاک کنید- حتی توصیه می‌شود که داده‌های بیشتری را حذف کنید.

روش‌های زیادی برای کاهش حجم اطلاعات وجود دارد. استفاده از نرم‌افزارهایی مانند WinDirStat و CCleaner و دیگر برنامه‌های مشابه می‌تواند در این رابطه مفید باشد. البته استفاده از نرم‌افزار WinDirStat و ابزار Disk Cleanup ویندوز بیشتر توصیه می‌شود. WinDirStat کمک می‌کند تا فایل‌های زاید از روی درایو هارد شما پاک شود و در کنار آن Disk Cleanup فایل‌هایی را که توسط WinDirStat حذف نشده‌اند را پاک می‌کند.

WinDirStat

روش کار WinDirStat این گونه است که اطلاعات ذخیره شده در درایو را به صورت شماتیک‌وار نشان می‌دهد. به عنوان مثال اطلاعات ذخیره شده نمایشی به این شکل خواهند داشت:

3

مربع‌ها و مستطیل‌های رنگی نشان دهنده‌ی بلوک داده‌ها هستند. هر رنگی نوع فایل را نشان می‌دهد. اندازه‌ی بلوک‌ها هم بیان‌گر میزان فضای اشغال شده توسط فایل است. هنگام پاک کردن فایل، کاربران باید احتیاط لازم را به کار برند. برای پاک کردن یک فایل لازم است که روی آن راست کلیک کرده و آن را از منوی زمینه حذف کرد.

Windows Disk Cleanup

Windows Disk Cleanup از مفیدترین ابزارهای موجود برای پاک‌سازی درایو هارد است. این ابزار نه تنها کش‌های مختلف ویندوز را پاک‌سازی می‌کند بلکه بقایای به جا مانده از نصب ویندوزهای قبلی را هم حذف می‌کند.

4

 

حذف بازیابی‌ها

ویندوز مدام در حال ایجاد نسخه‌ی پشتیبان از سیستم عامل است. همین امر باعث می‌شود که حجم قابل توجهی از فضای سیستم اشغال شود. از این رو اگر گزینه‌ی دیگری ندارید، سعی کنید تا برخی از این برنامه‌های مربوط به بازیابی را حذف کنید.

اجرای دستور Compact OS

این مرحله کاملا اختیاری است. مایکروسافت در ویندوز ۱۰ قابلیتی به نام Compact OS را معرفی کرده است تا بتواند در فضای ذخیره‌سازی صرفه جویی به عمل آورد. این دستور به طور متوسط حجم سیستم عامل را بین ۱.۶ تا ۲.۶ گیگابایت (یا بیشتر) کاهش می‌دهد. ضمن این که به کاربران اجازه می‌دهد تا حداقل ۴ گیگابایت از فضای درایو را بازیابی کنند. برای اجرای این دستور، عبارت “cmd” را در Windows Search تایپ کنید. سپس روی Command Prompt راست کلیک کنید.

 

از دستور زیر برای فعال‌سازی Compact OS استفاده کنید:

 

 چگونه ویندوز را از HDD به SSD انتقال دهیم؟

چگونه ویندوز را از HDD به SSD انتقال دهیم؟

به این ترتیب این دستور اجرا خواهد شد.

گام سوم: ایجاد پشتیبان با استفاده از Macrium Reflect

حالا نوبت آن رسیده است که یک نسخه‌ی پشتیبان از ویندوز تهیه کنید. همزمان که هارد اکسترنال را به سیستم وصل کرده‌اید، برنامه‌ی Macrium Reflect را باز کرده و از پنجره‌ی مرکزی گزینه‌ی Create a backup را انتخاب کنید. سپس روی گزینه‌ی Image this disk کلیک کنید.

 چگونه ویندوز را از HDD به SSD انتقال دهیم؟

چگونه ویندوز را از HDD به SSD انتقال دهیم؟

ابتدا مطمئن شوید که پارتیشین مورد نظر را با گذاشتن علامت چک انتخاب کرده‎اید. هر پارتیشن بخشی از داده‌ها را شامل می‌شود و هر باکس پارتیشن موجود در درایو هارد را نمایش می‌دهد. تمام پارتیشن‌ها به طور پیش‌فرض در حالت انتخاب قرار دارند. چنانچه نمی‌خواهید یکی یا بعضی از پارتیشن‌های انتخاب شده در این فهرست باشند، علامت چک کنار آن را بردارید.

در مرحله‌ی دوم Folder را انتخاب کنید. البته این گزینه هم به طور پیش‌فرض انتخاب شده است.

در مرحله‌ی ۳ روی سه نقطه‌ی کنار Folder کلیک کنید و در آنجا مسیر هارد اکسترنال خود را قرار دهید.

در نهایت در مرحله‌ی ۴، Finish را انتخاب کنید تا فرآیند ایجاد نسخه‌ی پشتیبان، آغاز به کار کند.

8

چگونه ویندوز را از HDD به SSD انتقال دهیم؟

گام چهارم: برداشتن HDD و جای گذاری SSD

برای بسیاری از کاربران این مرحله، ساده‌ترین قسمت کار است. فقط کافی است HHD را بردارید و SSD را جایگزین آن کنید.

 چگونه ویندوز را از HDD به SSD انتقال دهیم؟

چگونه ویندوز را از HDD به SSD انتقال دهیم؟

گام پنجم: بازیابی اطلاعات نسخه‌ی پشتیبان

حالا سیستم خود را ری‌استارت کرده و آن را از روی فلش یا دی‌وی‌دی بوت کنید. در ادامه به جای این که ویندوز بالا بیاید، نرم‌افزار Macrium Reflect فایل image بازیابی شده را اجرا می‌کند. تب Restore را از بالا انتخاب کرده و از طریق  Browse for an image file to restore فایل image را پیدا کنید. سپس درایو اکسترنال را انتخاب کرده و نسخه‌ی پشتیبان را راه‌اندازی کنید.

 چگونه ویندوز را از HDD به SSD انتقال دهیم؟

چگونه ویندوز را از HDD به SSD انتقال دهیم؟

حالا برای کپی اطلاعات روی SSD هر پارتیشن را انتخاب کرده و با دراگ کردن به SSD انتقال دهید. در کمتر از یک ساعت یک نسخه‌ی کامل از ویندوز روی SSD نصب شده است. نگران فایل‌های pagefile.sys و hiberfil.sys هم نباشید. چرا که Macrium Reflect به صورت خودکار هر دو نوع فایل را حذف می‌کند و پارتیشن‌ها را با فضای موجود در SSD هماهنگ می‌کند.

اینتل تراشه ۷۲ هسته ای زئون فی

اینتل تراشه ۷۲ هسته ای زئون فی را برای رقابت با پردازنده های گرافیکی انویدیا در حوزه یادگیری ماشین رونمایی کرد

اخیرا انویدیا پردازنده‌های گرافیکی قدرتمند خود نظیر تسلا پی ۱۰۰ را به منظور استفاده در کاربردهایی نظیر یادگیری ماشین، رونمایی کرده که بسیار مورد استقبال واقع شده است. اما اینتل به عنوان بزرگ‌ترین تولیدکننده‌های پردازنده‌ بیکار ننشسته و تراشه‌ی ۷۲ هسته‌ای زئون فی ۷۲۹۰ را برای استفاده از در حوزه‌ی یادگیری ماشین رونمایی کرده است.

 

اینتل تراشه‌ی ۷۲ هسته‌ای زئون فی ۷۲۹۰ خود را با هدف استفاده در کاربردهایی نظیر یادگیری ماشین رونمایی کرده است. این کمپانی مدعی است که زئون فی قادر است تا قدرتی برابر با پردازنده‌های گرافیکی انویدیا را در حوزه‌ی یادگیری ماشین به کاربران ارائه کند، در حالی که زئون فی در شماری از حوزه‌ها نیز دست بالا را در اختیار دارد.

قرار بود زئون فی به همراه Larrabee، پردازنده‌ی گرافیکی اصلی اینتل راهی بازار شود، اما این پروژه پس از چندین بار به تعویق افتادن، بالاخره در سال ۲۰۰۹ میلادی به صورت کامل کنار گذاشته شد، اما اینتل ایده‌ی توسعه‌ی زئون فی را کنار نگذاشت.

اینتل تراشه ۷۲ هسته ای زئون فی را برای رقابت با پردازنده های گرافیکی انویدیا در حوزه یادگیری ماشین رونمایی کرد

همانطور که اشاره کردیم، زئون فی با هدف مقابله با محصولات انویدیا راهی بازار شده که اخیر سر و صدای بسیاری را در حوزه‌هایی نظیر بازی و یادگیری ماشین، بله راه انداخته است.

البته باید به این موضوع اشاره کرد که زئون فی تاکنون به عنوان یکی از بهترین گزینه‌ها برای توسعه‌ی ابررایانه‌ها و سرورها در موسسات آموزشی و کمپانی‌های متعدد مورد استفاده قرار گرفته است، اما اینتل با معرفی نسل جدید این تراشه که از وجود ۷۲ هسته‌ی پردازشی بهره می‌برد، درصدد رقابت با پردازنده‌های گرافیکی انویدیا در حوزه‌ی یادگیری ماشین است.

تراشه‌ی ۷۲ هسته‌ای زئون فی ۷۲۹۰ را باید سریع‌ترین تراشه‌‌ی این کمپانی در تاریخ خواند. براساس اطلاعات ارائه شده این محصول از سپتامبر سال جاری میلادی با برچسب قیمت ۶,۲۹۴ دلاری راهی بازار خواهد شد که علاوه بر سریع‌ترین، لقب گران‌ترین محصول اینتل را نیز به خود اختصاص داده است. اینتل در کنار این محصول، سه نسخه‌ی دیگر از زئون فی را نیز رونمایی کرده که شامل نسخه‌ی ۶۴ و ۶۸ هسته‌ای می‌شود.

تراشه‌های زئون فی در برخی از سریع‌ترین رایانه‌های جهان مورد استفاده قرار می‌گیرند. اینتل شماری از تراشه‌های نسل جدید خود را از ماه‌ها پیش راهی بازار کرده است، اما این کمپانی مشخصات فنی و قیمت محصولات خود را برای اولین بار در جریان کنفرانس بین المللی ابررایانه‌ها که در فرانکفورت آلمان برگزار می‌شود، اعلام کرد.

همانطور که در تصویر نیز مشاهده می‌کنید، این تراشه با ظاهری شبیه به یک کارت گرافیک تولید شده است. کاربران می‌توانند از این تراشه به عنوان پردازنده‌ی اصلی سیستم استفاده کرده یا آن را در کنار سایر پردازنده‌های موجود قرار دهند. برای مثال در ابررایانه‌ها و سرور‌ها این تراشه به عنوان یک پردازنده‌ی کمکی برای پردازنده‌ی اصلی که زئون E5 است، مورد استفاده قرار خواهد گرفت.

البته باید به این موضوع اشاره کرد که امکان استفاده از این تراشه‌ در رایانه‌های معمولی نیز وجود دارد، اما نباید انتظار داشت تا رایانه‌ی مجهز به این تراشه توانایی اجرای آخرین بازی‌های منتشر شده را داشته باشد، چراکه زئون فی جدید با بهره‌گیری از هسته‌های اتم تقویت شده برای انجام محاسبات و پردازش‌های علمی توسعه یافته است.

تراشه‌ی زئون فی جدید از حافظه‌ی سه بعدی موسوم به Integrated Stacked Memory با ظرفیت ۱۶ گیگابایت بهره برده و می‌تواند از حافظه‌ی رم DDR4 با ظرفیت بیش از ۳۸۴ گیگابایت نیز پشتیبانی کند. انرژی مصرف شده توسط این پردازنده ۲۴۵ وات است و فرکانس هر یک ازهسته‌ها روی ۱.۵ گیگاهرتز تنظیم شده است.

 اینتل تراشه‌ی ۷۲ هسته‌ای زئون فی ۷۲۹۰ خود را با هدف استفاده در کاربردهایی نظیر یادگیری ماشین رونمایی کرده است. این کمپانی مدعی است که زئون فی قادر است تا قدرتی برابر با پردازنده‌های گرافیکی انویدیا را در حوزه‌ی یادگیری ماشین به کاربران ارائه کند، در حالی که زئون فی در شماری از حوزه‌ها نیز دست بالا را در اختیار دارد. قرار بود زئون فی به همراه Larrabee، پردازنده‌ی گرافیکی اصلی اینتل راهی بازار شود، اما این پروژه پس از چندین بار به تعویق افتادن، بالاخره در سال ۲۰۰۹ میلادی به صورت کامل کنار گذاشته شد، اما اینتل ایده‌ی توسعه‌ی زئون فی را کنار نگذاشت. همانطور که اشاره کردیم، زئون فی با هدف مقابله با محصولات انویدیا راهی بازار شده که اخیر سر و صدای بسیاری را در حوزه‌هایی نظیر بازی و یادگیری ماشین، بله راه انداخته است. البته باید به این موضوع اشاره کرد که زئون فی تاکنون به عنوان یکی از بهترین گزینه‌ها برای توسعه‌ی ابررایانه‌ها و سرورها در موسسات آموزشی و کمپانی‌های متعدد مورد استفاده قرار گرفته است، اما اینتل با معرفی نسل جدید این تراشه که از وجود ۷۲ هسته‌ی پردازشی بهره می‌برد، درصدد رقابت با پردازنده‌های گرافیکی انویدیا در حوزه‌ی یادگیری ماشین است. تراشه‌ی ۷۲ هسته‌ای زئون فی 7290 را باید سریع‌ترین تراشه‌‌ی این کمپانی در تاریخ خواند. براساس اطلاعات ارائه شده این محصول از سپتامبر سال جاری میلادی با برچسب قیمت ۶,۲۹۴ دلاری راهی بازار خواهد شد که علاوه بر سریع‌ترین، لقب گران‌ترین محصول اینتل را نیز به خود اختصاص داده است. اینتل در کنار این محصول، سه نسخه‌ی دیگر از زئون فی را نیز رونمایی کرده که شامل نسخه‌ی ۶۴ و ۶۸ هسته‌ای می‌شود. تراشه‌های زئون فی در برخی از سریع‌ترین رایانه‌های جهان مورد استفاده قرار می‌گیرند. اینتل شماری از تراشه‌های نسل جدید خود را از ماه‌ها پیش راهی بازار کرده است، اما این کمپانی مشخصات فنی و قیمت محصولات خود را برای اولین بار در جریان کنفرانس بین المللی ابررایانه‌ها که در فرانکفورت آلمان برگزار می‌شود، اعلام کرد. همانطور که در تصویر نیز مشاهده می‌کنید، این تراشه با ظاهری شبیه به یک کارت گرافیک تولید شده است. کاربران می‌توانند از این تراشه به عنوان پردازنده‌ی اصلی سیستم استفاده کرده یا آن را در کنار سایر پردازنده‌های موجود قرار دهند. برای مثال در ابررایانه‌ها و سرور‌ها این تراشه به عنوان یک پردازنده‌ی کمکی برای پردازنده‌ی اصلی که زئون E5 است، مورد استفاده قرار خواهد گرفت. البته باید به این موضوع اشاره کرد که امکان استفاده از این تراشه‌ در رایانه‌های معمولی نیز وجود دارد، اما نباید انتظار داشت تا رایانه‌ی مجهز به این تراشه توانایی اجرای آخرین بازی‌های منتشر شده را داشته باشد، چراکه زئون فی جدید با بهره‌گیری از هسته‌های اتم تقویت شده برای انجام محاسبات و پردازش‌های علمی توسعه یافته است. تراشه‌ی زئون فی جدید از حافظه‌ی سه بعدی موسوم به Integrated Stacked Memory با ظرفیت ۱۶ گیگابایت بهره برده و می‌تواند از حافظه‌ی رم DDR4 با ظرفیت بیش از ۳۸۴ گیگابایت نیز پشتیبانی کند. انرژی مصرف شده توسط این پردازنده ۲۴۵ وات است و فرکانس هر یک ازهسته‌ها روی ۱.۵ گیگاهرتز تنظیم شده است. در کنار استفاده از زئون فی جدید در سرور‌ها و ابررایانه‌ها، کاربرد دیگری نیز برای این تراشه وجود دارد که شامل هوش مصنوعی و یادگیری ماشین است. براساس اطلاعات ارائه شده توسط چارلز ووشپارد، قائم مقام بخش دیتاسنتر در اینتل، نسل‌های بعدی زئون فی قابلیت‌های خود در حوزه‌های مورد نظر را بیش از پیش افزایش خواهند داد. ووشپارد به این موضوع اشاره کرده که پردازنده‌ها در مقایسه با پردازنده‌های گرافیکی در کاربردهایی نظیر یادگیری ماشین و سرور‌ها بسیار سریع‌تر هستند. اینتل تراشه‌ی جدید خود را در حوزه‌ای نظیر یادگیری عمیق نیز مورد آزمایش قرار می‌دهد. این کمپانی علاوه بر انویدیا با پردازنده‌های گرافیکی، حضور رقبای دیگری را با تولید پردازنده‌های مخصوص یادگیری عمیق حس می‌کند که از جمله‌ی آن باید به گوگل اشاره کرد که اخیرا پردازنده‌ی TPU یا همان پردازنده‌ی تنسور را رونمایی کرده است. براساس برنامه‌‌های اینتل، این کمپانی در نظر دارد تا از حوره‌ی تولید تراشه برای رایانه‌ها فاصله گرفته و تراشه‌های جدید خود نظیر زئون فی را با فناوری‌های جدیدی که به آن‌ها دست یافته، پیونددهد. باید دید که رقابت کمپانی‌ها در مسیر توسعه‌ی واحدهای پردازشی مورد استفاده در حوزه‌هایی نظیر یادگیری عمیق، یادگیری ماشین و هوش مصنوعی به کجا ختم خواهد شد؟

ووشپارد به این موضوع اشاره کرده که پردازنده‌ها در مقایسه با پردازنده‌های گرافیکی در کاربردهایی نظیر یادگیری ماشین و سرور‌ها بسیار سریع‌تر هستند.

اینتل تراشه‌ی جدید خود را در حوزه‌ای نظیر یادگیری عمیق نیز مورد آزمایش قرار می‌دهد. این کمپانی علاوه بر انویدیا با پردازنده‌های گرافیکی، حضور رقبای دیگری را با تولید پردازنده‌های مخصوص یادگیری عمیق حس می‌کند که از جمله‌ی آن باید به گوگل اشاره کرد که اخیرا پردازنده‌ی TPU یا همان پردازنده‌ی تنسور را رونمایی کرده است.

براساس برنامه‌‌های اینتل، این کمپانی در نظر دارد تا از حوره‌ی تولید تراشه برای رایانه‌ها فاصله گرفته و تراشه‌های جدید خود نظیر زئون فی را با فناوری‌های جدیدی که به آن‌ها دست یافته، پیونددهد.

باید دید که رقابت کمپانی‌ها در مسیر توسعه‌ی واحدهای پردازشی مورد استفاده در حوزه‌هایی نظیر یادگیری عمیق، یادگیری ماشین و هوش مصنوعی به کجا ختم خواهد شد؟

 

محققان پردازنده هزار هسته‌ای ساختند!

حتما تاکنون نامی از پردازنده‌های ۱۰ یا ۱۲ یا ۱۸ هسته‌ای شنیده‌اید ولی مطمئنا این خبر برایتان تازگی دارد. موسسه تحقیقاتی UC Davis پردازنده‌ای به نام KiloCore توسعه داده است که دربردارنده هزار هسته محاسباتی است و بسیاری از وظایف و کارهای پردازشی را در کمتر از یک ثانیه انجام می‌دهد.

 

36

با این پردازنده می‌توان بسیاری از کارهای محاسباتی مانند رمزنگاری، محاسبات علمی خرد، انکدینگ ویدیوها را به طور موازی و در کمترین زمان ممکن تا کنون انجام داد. کارایی این پردازنده فوق‌العاده و چشم‌گیر است. شما می‌توانید ۱۱۵ میلیارد دستورالعمل را در یک ثانیه انجام دهید ولی فقط ۰.۷ وات مصرف انرژی داشته باشید. یعنی برای راه‌اندازی و اجرای این تراشه فقط به یک باتری قلمی AAA نیاز است. فعلا نباید منتظر تولید انبوه این محصول بود. این پردازنده با آزمایشگاه‌های IBM و در مقیاس ۳۲ نانومتری ساخته شده است در حالی که پردازنده‌های تجاری موجود در بازار از فناوری‌های ۱۴ نانومتری استفاده می‌کنند. بنابراین؛ محققان و توسعه‌دهنده‌گان KiloCore به دنبال روش‌هایی برای کوچک‌تر کردن این واجد محاسباتی هستند. چیزی که از دل این خبر بیرون می‌آید؛ چشم‌انداز سال‌های آینده است و اینکه شما روی دستگاه‌های همراهی مانند موبایل یک پردازنده با این سطح از کارایی داشته باشید و بتوانید چندین کار سنگین را سریع انجام دهید در حالی که مصرف باتری موبایل به کمترین حد ممکن خودش رسیده است.

منبع: www.netco.biz

گوگل پردازنده‌ای ویژه هوش مصنوعی ساخت


امروزه بیش از ۱۰۰ تیم حرفه‌ای در گوگل از یادگیری ماشینی در حوزه‌های مختلف و همچنین بهبود عملکرد برنامه‌های کاربردی محبوب استفاده می‌کنند. Street View، صندوق پستی و جستجوی صوتی همه این برنامه‌ها به لطف یادگیری ماشینی به بهترین شکل عمل می‌کنند. اما در پس زمینه این نرم‌افزارهای محبوب، سخت‌افزارهای گوگل قرار دارند که همانند خورشیدی می‌درخشند. اگر به فعالیت‌های سخت‌افزاری گوگل نگاهی داشته باشیم، به خوبی مشاهده می‌کنیم که این شرکت با ساخت سخت‌افزارهای ویژه مراکز داده‌اش، بیگانه نیست. اما خبر طراحی یک پردازنده خاص، موضوع دیگری است.

این پردازنده خاص منظوره غول اینترنتی، یک واحد پردازش تانسو است که در اصل یک تراشه سفارشی ویژه یادگیری ماشینی است. در حالی که در ظاهر چنین به نظر می‌رسد که این پردازنده با هدف افزایش دقت وظایف هوش مصنوعی طراحی شده است، اما این چنین نیست. گوگل در ساخت این تراشه تمرکزش بر محاسبات خام بوده است. در نتیجه سعی کرده است  مصرف انرژی این تراشه را به حداقل رسانده تا در یادگیری ماشینی عملکرد بهتری داشته باشد. اگر این پردازنده را به لحاظ مصرف انرژی با پردازنده‌های رایج بازار مورد بررسی قرار دهیم، مشاهده می‌کنیم که این پردازنده با همان مصرف انرژی سریع‌تر کار می‌کند.

74

پروژه‌ای که نزدیک به یک سال مستتر بود!

گوگل نزدیک به یک سال پیش در سکوت کامل خبری کار روی پروژه‌ای در ارتباط با شتاب‌دهندگی پیشرفته در برنامه‌های کاربردی را آغاز کرد. پروژه‌ای که بر مبنای یادگیری ماشینی عمل می‌کرد. ماحصل این پروژه گوگل یک واحد پردازشی تانسور TPU بود. یک ASIC سفارشی که به‌طور خاص برای یادگیری ماشینی طراحی شده بود. تراشه‌ای که به بهترین شکل با پروژه یادگیری ماشینی منبع باز TensorFlow یکپارچه شده است. گوگل با استفاده از این تراشه‌‌ که مصرف انرژی آن بهینه‌سازی شده است، بسیاری از کارها را مدیریت کرده و فرآیندهایی همچون بهبود کیفیت نقشه‌ها و افزایش ضریب اعتماد به آلفاگو که برای شرکت در مسابقه Go آماده شده بود را بهبود بخشید. این همان تراشه‌‌ای بود که گوگل در بازی Go برای شکست قهرمان کره‌ای از آن استفاده کرد. تقریبا یک سال است که گوگل از این تراشه‌ها در مراکز داده‌ای خودش استفاده می‌کند.

اما دو نکته جالب توجه در ارتباط با این تراشه‌ها وجود دارد. اول آن‌که معماری این تراشه‌ها به گونه‌ای است که از هر وات مصرفی برای یادگیری ماشینی به صورت بهینه‌سازی شده‌ای استفاده می‌کند. دوم آن‌که گوگل دقت این تراشه‌ها را کمی کاهش داده است. این کاهش دقت باعث شده است تا از تعداد ترانزیستورهای کمتری برای انجام عملیات استفاده شود. این ترکیب به گوگل این توانایی را داده است تا عملیات بیشتری را در هر ثانیه به درون سیلیکون‌ها وارد کرده و از مدل‌های یادگیری ماشینی قدرتمندتری استفاده کرده و این مدل‌ها را بسط دهد. ماحصل این فعالیت‌ها در غالب ارائه نتایج هوشمندانه‌ای که به سرعت در حال رشد هستند به کاربران نشان داده می‌شود.

گوگل در ارتباط با دستاوردهای این شرکت در حوزه محاسبات پیشرفته گفته است: «هدف ما این است که به عنوان رهبری در صنعت یادگیری ماشینی شناخته شویم و نوآوری‌هایی که در این زمینه به وجود می‌آوریم را در اختیار مصرف کنندگان خودمان قرار دهیم. ساخت تراشه‌های TPU که در زیرساخت‌های گوگل مورد استفاده قرار می‌گیرد به ما اجازه می‌دهد تا قدرت گوگل در حوزه نرم‌افزارهایی همچون تانسورفلو و یادگیری ماشینی ابری را همراه با قابلیت‌های شتاب‌بخشی پیشرفته در اختیار توسعه دهندگان خود قرار دهیم. یادگیری ماشینی در حال تغییر این رویکرد است که چگونه توسعه‌دهندگان توانایی ساخت برنامه‌های هوشمندی را دارند که مزایایی را هم برای مصرف کنندگان و هم برای مشتریان به وجود آورد. ما با اشتیاق دوست داریم، آینده‌ای را مشاهده کنیم که این امکانات به بهترین نحو در زندگی مردم وارد شده باشد.»

لازم به توضیح است که شما توانایی خرید این پردازنده‌ها را ندارید، اما به خوبی تاثیرگذاری آن‌را بر هوش مصنوعی و از همه مهم‌تر بر سرویس‌های گوگل مشاهده خواهید کرد.

===============================www.netco.biz

معرفی روتر های سیسکو

معرفی روتر های سیسکو

در میان محصولات شبکه ، Cisco آشناترین و محبوبترین نام را دارد. محصولات Cisco معمولا” بهترین و مطمئن ترین ابزارهای شبکه هستند. با داشتن یک روتر Cisco بعید است مدیر یک شبکه در حل مسائل و مشکلات خود به بن بست برسد. چرا که Cisco برای هر مسئله ای راه حلی را پیشنهاد کرده است.

ما در اینجا تنها مقداری درباره روترهای Cisco بحث می کنیم و وارد سایر محصولات Cisco نمی شویم.

بدیهی است پرداختن به جزئیات کامل روترهای Cisco نیز امکان پذیر نیست. برای آگاهی کامل از محصولات و هر یک از تجهیزات Cisco می توانید به سایت cisco.com مراجعه نمایید.

امروزه استفاده از روترهای Cisco به منظور برقراری ارتباط کاربران با ISP از جمله رایج ترین روشهای موجود است. علاوه بر این روترهای Cisco می توانند به منظورهای مختلفی نظیر Firewall , Routing , VoIP , … مورد استفاده قرار گیرند.

روترهای Cisco دارای مدلهای مختلفی بوده که برخی از آنها به اختصار عبارتند از :

Cisco 2511 :

این مدل دارای ۱ ماژول Ethernet می باشد.

ــ برای اتصال خط Leased دارای پورت سریال Onboard است.

ــ مــیزان Ram آن۴ الی ۸ مــگابایت می باشد و امکان افزایش را نیز داراست.

ــ میزان Flash آن۸ الی ۱۶ مگابایت بوده و امکان تعویض یا افزایش را نیز داراست.

ــ ماژول نمی توان به آن اضافه کرد. اما می توان ۲ پورت سریال برای اتصال خط Leased یا E1/T1 به آن اضافه کرد.

ــ سرعت Ethernet آن ۱۰ Mb/s می باشد.

Cisco 26XX :

ــ این مدل دارای ۱ پورت یا ۲ پورت Ethernet می باشد.

ــ بــرای اتــصــال خــط Leased به کارت سریال WIC1T یا WIC2T نیاز است.

ــ میزان Ram آن حداقل ۱۶ و حداکثر ۲۵۶ مگابایت می باشد.

ــ میزان Flash آن حـــداقل ۸ و حـــداکثر ۱۲۸ مگابایت می باشد.

ــ حداکثر ۱ ماژول می توان به آن اضافه کرد.

ــ حداکثر ۲ کارت WIC می توان به آن اضافه کرد.

ــ سرعت Ethernet آن ۱۰۰/۱۰ یا۱۰ می باشد.

Cisco 36XX :

ــ این مدل دارای ۱ پورت یا ۲ پورت Ethernet می باشد.

ــ برای اتصال خط Leased به آن به ماژول NM-1FE2W و کارت سریال WIC1T یا WIC2T نیاز است

ــ مــیزان Ram آن ۳۲ مــی باشــد و امــکان افــزایش را نیز داراست.

ــ میزان Flash آن ۸ بوده و امکان تعویض یا افزایش را نیز داراست.

ــ حداکثر ۶ ماژول می توان به آن اضافه کرد.

ــ سرعت Ethernet آن ۱۰۰ می باشد.

Cisco 5300 :

ــ این مدل Router نبوده و فقط Access Server می باشد.

ــ دارای ۲ پورت Ethernet است. یکی با سرعت ۱۰ و دیگری با سرعت ۱۰۰ است.

ــ خط Leased نمی توان به آن اضافه کرد.

ــ میزان Ram آن ۶۴ می باشد و امکان افزایش را نیز داراست.

ــ میزان Flash آن ۱۶ بوده و امکان تعویض یا افزایش را نیز داراست.

ــ حداکثر ۳ ماژول می توان به آن اضافه کرد.

ــ حداکثر ۴ خط E1 می توان به آن اضافه کرد. (برای ۱۲۰ خط VoIP همزمان)

Cisco 5350 :

ــ این مدل دارای ۲ پورت Ethernet با سرعت ۱۰/۱۰۰ می باشد.

ــ حداکثر ۷ خط E1 می توان به آن اضافه کرد.

ــ دارای دو سریال پورت Onboard است که از آن می توان برای اتصال خط Leased استفاده کرد.

ــ میزان Ram آن ۱۲۸ مگابایت می باشد و امکان افزایش را نیز داراست.

ــ میزان Flash آن ۳۲ مگابایت بوده و امکان تعویض یا افزایش را نیز داراست.

ــ حداکثر ۳ ماژول می توان به آن اضافه کرد.

ــ حداکثر ۷ خط E1 می توان به آن اضافه کرد.

Cisco 1750 :

ــ این مدل دارای ۱ ماژول Ethernet می باشد.

ــ به این مدل می توان ۲ کارت WAN اضافه کرد.

ــ مورد استفاده آن فقط به منظور Voice Gateway است.

ــ برای اتصال خط Leased به آن باید ماژول WIC به آن اضافه کرد.

ــ میزان Ram آن۱۶ مگابایت می باشد و امکان افزایش را نیز داراست.

ــ میزان Flash آن ۴ مگابایت بوده و امکان تعویض یا افزایش را نیز داراست.

ــ با استفاده از کارتهای VIC-2FXO می توان از حداکثر ۴ خط به منظور VoIP استفاده کرد.

ــ ماژول نمی توان به آن اضافه کرد.

ــ سرعت Ethernet آن۱۰/۱۰۰ می باشد.

Cisco Vg200 :

ــ این مدل دارای ۱ ماژول Ethernet می باشد.

ــ مورد استفاده آن فقط به منظور Voice Gateway است.

ــ اتصال خط Leased به آن ممکن نیست.

ــ میزان Ram آن۱۶مگابایت می باشد و امکان افزایش را نیز داراست.

ــ میزان Flash آن ۴مگابایت بوده و امکان تعویض یا افزایش را نیز داراست.

ــ حداکثر ۱ ماژول می توان به آن اضافه کرد.

ــ سرعت Ethernet آن ۱۰۰/۱۰ می باشد.

همانگونه که گفته شد روترهای Cisco نسبت به سایر روترها قابلیت انعطاف پذیری بیشتری داشته و ماژول های مختلفی می توان بر روی آنها نصب کرد و به منظورهای مختلف از آنها استفاده نمود. از میان انواع ماژولهایی که می توان بر روی روترهای Cisco نصب کرد می توان به موارد زیر اشاره کرد :

NM16AM : ماژول Data برای ۱۶ خط تلفن به همراه ۱۶ مودم Internal با سرعت ۵۶Kb/s می باشد.

NM32A : ماژول Data برای ۳۲ خط تلفن بدون مودم Internal می باشد. اگر از این ماژول استفاده شود باید ۳۲ مودم External به روتر وصل شود.

NM16A : ماژول Data برای ۱۶ خط تلفن بدون مودم Internal می باشد. اگر از این ماژول استفاده شود باید ۱۶ مودم External به روتر وصل شود.

NM-HDV-2E1 : بوسیله این ماژول ۲ خط E1 را می توان به روتر متصل کرد.

نوآوری کلیدی تکنولوژی در سال۲۰۱۶

نوآوری کلیدی تکنولوژی در سال۲۰۱۶

سال ۲۰۱۶ همراه با چشم اندازهایی جدید در زمینه سخت افزارهای محیط های کسب و کار متوسط همراه گردیده است. طبق بررسیهای IDC، سخت افزار بزرگترین بخش از بازار در سال ۲۰۱۶ باقی خواهد ماند و نزدیک به ۴۰ درصد از تمام هزینه های IT به سمت دستگاه های، زیرساخت ها و سایر سخت افزار خواهد بود. آخرین زمانی که قابلیت های فنی کسب و کار خود را بررسی نموده اید، کی بوده است؟ آیا کارکنان شما از وجود فن آوری های قدیمی، عدم دسترسی و یا محدودیت های ذخیره سازی داده شکایت مینمایند؟ زمان آن رسیده تا فن آوری های نوآورانه ای که منجر به پیشرفت کسب و کار شما میشوند را درنظر بگیرید. در اینجا نگاهی به سه حوزه زیرساخت کلیدی که بسیاری از سازمان های متوسط قصد استقرار آن را پیش رو دارند، میندازیم:

 شبکه های مجازی

برای کسب و کارهای متوسط، مجازی سازی سرور به طور فزاینده ای رایج گردیده است. این سازمان ها ممکن است در معرض تنگناهای داده قرار گرفته و ذخیره سازی مجازی را نیز اضافه نمایند. در حال حاضر، فاز آتی شبکه، مجازی سازی میباشد. سال ۲۰۱۶، سال بزرگ شکل گیری مجازی سازی و شبکه نرم افزار تعریف شده (SDN) است. در حالی که SDN از لحاظ فنی یک سخت افزار ارتقاء پذیر نیست، تفکر بر قابلیت های سخت افزاری شما برای این موضوع حائز اهمیت میباشد. با آماده سازی اساس تکنولوژی خودتان ، به طور کامل می توانید SDN یا مجازی سازی را ادغام، از مزایای آن استفاده کنید و کسب و کار خود را بدون هیچ گونه نگرانی در مورد از کار افتادگی فعال سازید. مزیت مرکز SDN پیرامون حوزه همگرایی میباشد. عناصر شبکه (به عنوان مثال، سوئیچ ها، فایروال ها، روتر، و غیره) همانند محاسبات و ذخیره سازی مجازی، به صورت یک فرآیند ساده مدیریت شبکه به نظر میایند. علاوه بر این، توانایی تهیه و تنظیم آسان منابع شبکه برای قوی تر شدن مقیاس شبکه فراهم میاید. سخت افزارهای مورد نیاز چه هستند و چه چیزهایی برای پشتیبانی از تراکنش ها مورد نیاز است؟ به عنوان مدیر فناوری اطلاعات، شما باید تفکیک منطقی توابع شبکه معمولی را تهیه نمایید. سوئیچ ها و روتر باید به صورت متمرکز بر روی پردازش بسته پیکربندی شود، در حالی که مسیر واقعی شبکه باید بر روی SDN باقی بماند.

اینترنت اشیا

IoT به اینترنت اشیاء اطلاق میشود و هنوز در مراحل اولیه رشد است، اما کسب و کارها تا حد زیادی می توانند از این فناوری جوان بهره مند شوند. مهمترین مزیت این روش تاثیر اطلاعات با ارزش است. با بهره گیری از اتصال دستگاه های مشتریان و نهادهای کسب و کار به طور یکسان، منابع جدیدی از داده به دست میاید، که می تواند به فرصتی ارزشمند از اطلاعات تبدیل گردد. به عنوان مثال، ماشین های فروش می تواند با یک سیم کارت نصب شده اطلاعات فروش را به دفتر ارسال نمایند، که این یک فرایند خودکار خستگی ناپذیر است. جمع آوری این داده ها بسته به ترافیک مصرفی می تواند برای پیش بینی زمان آتی تهیه یک ماشین جدید کمک نماید. علاوه بر این، اینترنت اشیا (IOT) را می توان اهرمی برای افزایش بهره وری رو به جلو کسب و کار از طریق بازاریابی در زمان واقعی، بهینه سازی فرآیند و کاهش مصرف در نظر گرفت. محصولات اینترنت اشیا به طور مستقل می توانند در جمع آوری داده از کاربران و مشتریان، از جمله چگونگی و زمان استفاده از محصول به کار برده شوند. با نظارت بر خریداران و آن چه که مورد نیاز آنهاست، بازاریابان بهتر می توانند بر روی ارسال تقاضا، پیام های منحصر به فرد به مشتریان، بهبود بازاریابی داخلی و تجربه مشتری تعیین هدف نمایند. اگر کسب و کار شما به مزایای استفاده از اینترنت اشیا توجه دارد و بر روی یکپارچه سازی برخی از فن آوری جدید در آینده نزدیک برنامه ریزی مینماید، شرکت خود را برای هجوم دستگاه های جدید با به روز رسانی سخت افزار فعلی و زیرساخت های شبکه، محاسبات و ذخیره سازی بالاتر و سطح پردازش داده ها بیشتر آماده نمایید.

ذخیره سازی مبتنی بر فلش

کسب و کار شما به لطف چند عامل کلیدی ممکن است سال ۲۰۱۶ را به عنوان زمانی مناسب برای ارتقاء ذخیره سازی مبتنی بر فلش در نظر بگیرد. اول اینکه قیمت فلش در حال کاهش است، که به این معنیست که فلش ها در حال حاضر برای تمام کسب و کار ها مقرون به صرفه میباشند. علاوه بر این، افزایش نیاز به پردازش داده ها با عملکرد بالا به احتمال زیاد منجر به رشد آن میشود. رشد اطلاعات کسب و کار و نیاز به راه حل های ذخیره سازی با کارایی بالا، منجر به ارایه گزینه های امیدوار کننده ای برای کسانی که به دنبال این تصمیم در این سال هستند گردیده است. با در دسترس قرار داشتن راه حل های ذخیره سازی، کسب و کارها می توانند سرعت و عملکرد فلش را به همراه طول عمر دیسک داشته باشند. بهتر از همه اینکه، ارتقاء به ذخیره سازی مبتنی بر فلش تقریبا هیچ خللی در ترکیب با سایر تکنیک های موجود در ذخیره سازی و سخت افزار فعلی ایجاد نمی نماید و به کسب و کار شما اجازه اجرا در سطح مطلوب را می دهد. با یکپارچه سازی فن آوری ذخیره سازی زیرساخت های خود، سازمان شما می تواند یک فلش را مانند هر دستگاه ذخیره سازی دیگر به عنوان هدف معرفی نماید. کسب و کارها میبایست به دقت وظایف پردازش اطلاعات ارسالی به این فلشها را اولویت بندی نمایند. قبل از ادغام، داده ها را با توجه به آنچه می خواهید در فلش ذخیره نمایید با توجه به این پرسش های مهم مرتب نمایید:

  • کدام برنامه ها بزرگترین فایلها را تولید مینمایند؟
  • داده هایی که قصد ذخیره سازی دارید چه زمان تولیدی دارند و یا تا چه حد مرتبط هستند؟
  • چه مقدار از داده ها کپی شده و یا قدیمی هستند؟
  • چه داده هایی حساس و نیاز به رمزگذاری دارند؟
  • با چه سرعت و از چه مکانی نیاز به دسترسی به داده ها دارید ؟

اگر در این سال به دنبال ارتقاء سخت افزاری فعلی کسب و کار خود هستید، این سه فن آوری نوین را برای سازمان متوسط خود در نظر بگیرید و شروع به برنامه ریزی کنید که چگونه شما می توانید این روش ها را بدون اختلال در روند کسب و کار ادغام نمایید. با به روز بودن با آخرین تغییرات، گوش فرا دادن به نگرانی های کارمندان، و انجام یک ارزیابی دقیق از فرآیندهای کسب و کار، با دقت و به طور موثر می توانید به بهبود عملیات که در آن حداکثر سرعت و حداقل وقفه انجام میگیرد، بپردازید.

برترین های  نتکو را در اینجادنبال کنید…

5 اشتباه بزرگ در ارتباط با انتخاب کلمات عبور

مجموعه‌ ای از بهترین روش‌ ها برای حصول اطمینان از به سرقت رفتن داده‌ های‌ تان

1)-واژه‌های رایج و عمومی

 محافظت از حساب ای‌میل‌تان با استفاده از کلمه‌ی عبوری مثل password یکی از احمقانه‌ترین روش‌ها در ایمن‌سازی کامپیوتری است. و شما نباید از 12345678 یا qwerty یا football استفاده کنید. و برای هواداران فیلم‌های علمی / تخیلی نیز باید اشاره کنیم ncc1701d و starwars نیز کلمات عبور رایج و متداولی هستند که به راحتی حدس زده می‌شوند. البته این موضوع صدها- اگر نه میلیون‌ها- نفر را از به کارگیری این کلمات و عبارات باز نمی‌دارد. و بدون هیچ شک و شبهه‌ای آن‌ها تعجب می‌کنند که چرا آدرس ای‌میل‌‌شان به لیست تماس‌هایی که دارند اسپم ارسال می‌کند و چرا یک نفر دیگر 15 یونیتPlayStation 4 از حساب Amazon‌ آن‌ها سفارش داده است.

2)- تاریخ تولد

طول کدهای PIN اغلب فقط چهار دیجیت است بنابراین به نظر نمی‌رسد به خاطر سپردن چند تا از آن‌ها کار دشواری باشد. اما مردم هنوز هم برای انجام این کار با گرفتاری روبرو هستند و استفاده از تاریخ تولد خودشان یا افرادی که دوست‌شان دارند هنوز هم وسوسه‌کننده است. البته مشکل در این‌جا است که به عنوان مثال هر کسی که بتواند پروفایل فیس‌بوک شما را بببنید احتمالا تاریخ تولد شما را هم خواهد دید. همین موضوع درباره‌ی دوستان یا اعضای خانواده‌تان نیز مصداق دارد. یک هکر مصمم در پیدا کردن این نوع اطلاعات درباره‌ی شما هیچ مشکلی نخواهد داشت بنابراین استفاده از آن برای کلمات عبور یک ایده‌ی وحشتناک خواهد بود.

3)-مدیریت کلمات عبور

البته این روزها بسیاری از افراد از اهمیت داشتن کلمات عبور قدرتمند آگاه هستند و عبارات بسیار طولانی و پیچیده را به حساب‌های شخصی خود اختصاص می‌دهند. کار خوبی است. اما چگونه باید همه‌ی این‌ها را به خاطر سپرد؟ ساده است: همه‌ی آن‌ها را روی یک قطعه‌ کاغذ کوچک بنویسید و سپس آن را به مانیتور خود بچسبانید. خوب، البته آگاهی از کلمات عبوری که بدین شکل در معرض دید همه‌گان قرار دارد مثل آب خوردن است. آیا می‌خواهید قادر شوید تمام کلمات عبور طولانی را به خاطر بسپارید؟ شاید تلاش برای استفاده از یک مدیر کلمه‌ی عبور نظیر LastPass یا Roboform مفید باشد.

4)-بدون کلمه‌ی عبور

همیشه گزینه‌ی چشم‌پوشی کردن از کلمات عبور چه برای wi-fi، روتر، PC یا تلفن در اختیار شما قرار دارد. با این روش همه‌ی کاری که باید انجام دهید این است که مستقیما به سراغ چیزی که احتیاج دارید بروید و این کار را بدون هیچ مانع و رادعی انجام دهید. عالی است- البته اگر این واقعیت به شدت عظیم را نادیده بگیریم که این کار شما را در برابر حملات، سرقت داده‌ها و سایر خطرات و تهدیدات امنیتی بلا دفاع می‌کند. استفاده از یک کلمه‌ی عبور پیش‌فرض در تمام مواقع که به راحتی توسط هر کسی که به دنبال ایجاد دردسر یا سرقت از شما باشد قابل بهره‌برداری و سوء‌استفاده است، تقریبا به اندازه‌ی نداشتن کلمه‌ی عبور بد است.

5)-بدون سیستم

مرد عاقلی (Harry Hill) زمانی گفته بود:"شما باید یک سیستم داشته باشید". او احتمالا درباره‌ی کلمات عبور حرف نمی‌زده اما این توصیه‌ای کاملا ارزشمند است. اگر به کلمات عبور اعتماد ندارید یا اصولا آن‌ها را نمی‌خواهید درنتیجه یک روش خوب برای به خاطر سپردن تمامی کلمات عبور قدرتمند و متفاوت این است که سیستمی داشته باشید که فقط خودتان آن را بشناسید. به عنوان مثال شاید بتوانید دو حرف آخر وب‌سایتی که در حال بازدید از آن هستید انتخاب کنید، اسم حیوان خانگی خود را به آن اضافه کنید، دو حرف اول وب‌سایت را به آن بیفزائید و سپس به عقب برگردید و همه‌ی Lها را با 1 عوض کنید و Oها را با صفر جایگزین نمائید.

یک فضای کاری همکارانه جدید برای کارمندان امروزی

سیسکو معتقد است نیروهای زیادی به ایجاد گرایش‌های جدید در محیط کار کمک می‌کنند. این نیروها و گرایش‌ها در کنار هم، یک فضای همکارانه‌ی جدید ایجاد می‌کنند که  سیسکو می‌گوید می‌تواند کمپانی‌ها را قادر کند  پلتفرمی از قابلیت‌های ارتباطی و همکارانه به وجود آورند که می‌توان آن را به تمام کاربران تحویل داد. در بر گرفتن این گرایش‌ها، برای کمپانی‌هایی که می‌خواهند سطوح جدیدی از نوآوری‌ها و کارآیی‌های تجاری را به کار بگیرند کلید اصلی محسوب می‌شود. همچنین آشکار شدن مهارت‌های بالقوه‌ای که در درون سازمان پنهان شده‌ است و در عین حال ارتباط نزدیک‌تر با مشتریان و شُرکا که همکاری و ارتباطات بهتری را فراهم می‌کند یکی دیگر از کلیدهای اساسی این گرایش محسوب می‌‌شود. برای خلق چنین فضای همکارانه‌ی جدیدی، سیسکو دامنه‌ی گسترده‌ای از محصولات، سرویس‌ها و راه‌حل‌هایی که UC‪(unified communications)‬ یا ارتباطات یکپارچه، حضور، کنفرانس، cloud computing، ویدئو و سایر حوزه‌ها را تحت پوشش قرار می‌دهد ارائه می‌نماید.

یک دیدگاه جدید

سیسکو معتقد است این فضای همکارانه‌ی جدید فضایی است که تمرکز تاریخی بنگاه‌های تجاری بر PCهای دسک‌تاپ را به شکل هابی برای ارتباطات و همکاری تغییر می‌دهد. در این‌جا مدل جدیدی وجود دارد که دینامیک PC-کارکنان را با کنار هم قرار دادن نرم‌افزار ارتباطی و همکاری که هر وسیله‌ای می‌تواند از هر مکانی برروی هر شبکه‌ای اجرا شود در بر می‌گیرد. به طور کلی،این فضای کاری جدید، ارتباطات و همکاری را به روش‌هایی که محیط سنتی دسک‌تاپ کلاینت / سرور قادر به انجام آن نیست امکان‌‌‌پذیر می‌سازد که نتایج آن اساسا به وجود آمدن روش‌های جدیدی برای نوآوری و بهره‌وری جدید و همچنین صرفه‌جویی بیش‌تر در هزینه‌ها است. گرایش‌هایی مثل رشد انفجاری استفاده از گوشی‌های هوشمند،مصرفی شدن تکنولوژی، و تغییر به سمت تحویل برنامه‌های کاربردی از طریق ابر، نیروهای لازم برای ایجاد یکی از عمده‌ترین و قابل توجه‌ترین تغییرات در صنعت IT در ۲۰ سال گذشته را با هم تلفیق کرده است. سایر عواملی که در این تغییر تاثیر دارند عبارتند از اهمیت رو به رشد و تاثیر شبکه‌های اجتماعی و استفاده از ویدئو در بین تمامی کاربران. هر یک از این عوامل از پتانسیل لازم برای تغییر چگونگی خرید،پیاده‌سازی و استفاده از تکنولوژی توسط کمپانی‌ها و بنگاه‌های تجاری برخوردار هستند.هرچند، وقتی این‌ عوامل با هم تلفیق شوند بر این عقیده‌ی IT که PC مرکز جهان بهره‌وری و همکاری کارکنان به شمار می‌رود تاثیر بسیار بزرگی بر جای می‌گذارد. حالا، تبلت‌ها و گوشی‌های هوشمند از قابلیت‌هایی (مثل ۴G و اتصال Wi-Fi، نمایش‌گرهایی با کیفیت بالا، دوربین‌های پُشت و جلو) برخوردار هستند که برای فراهم نمودن امکان ارتباطات غنی‌تر و موقعیت‌های همکاری که بسیاری از PCها قادر به تحویل آن نیستند ضروری به شمار می‌رود. در جایی که مسئله‌ی مصرفی‌سازی IT به میان می‌آید،نسل جدیدی از کارمندانی که وارد محیط کار می‌شوند از IT انتظار دارند از ابزاری که آن‌ها می‌خواهند استفاده کنند پشتیبانی نماید. به همین شکل،نسل‌های جدیدتر کارکنان انتظار دارند به شبکه‌های اجتماعی، بلاگینگ، wiki و سایر ابزار اجتماعی که با آن‌ها آشنایی دارند دسترسی داشته باشند و یا بتوانند به معادل‌های سازگار با فعالیت تجاری این ابزار دسترسی پیدا کنند. کمپانی‌های پیش‌رو که این حرکت را در بر گرفته‌اند شاهد مزایای مرتبط با دریافت عقیده‌ی مشتری، فراهم نمودن سرویس‌های مکان‌محور و زمان‌واقعی و crowdsourcing ایده‌های جدید هستند. درضمن زمانی که کنفرانس‌دهی و آموزش مطرح می‌شود ویدئو می‌تواند کیفیت سرویس را ارتقا دهد و هزینه‌ها را کم کند  اما در عین حال روش‌های جدیدی مثل سرویس‌های پزشکی و بانکی راه‌دور، رزولوشن‌های زنده برای مشکلات تولیدی، مصاحبه‌ی بخش منابع انسانی برای کارکنانی که از راه دور استخدام می‌شوند و خیلی چیزهای دیگر برای کمپانی‌ها مزایای زیادی در بر دارد.درست مثل شبکه‌های اجتماعی و ابزار موبایل،ویدئو نیز یک تکنولوژی دیگر است که  نسل‌های جدید کارکنان انتظارات مشخصی از آن دارند. این منجر به برخورداری از قابلیت استفاده از ویدئو به عنوان بخشی از همکاری در محیط کار و دسترسی به منابع ویدئویی از طریق چندین ابزار، پلتفرم، انواع اتصال‌ها، مکان‌ها و حالت‌های ارتباطی (زمان‌واقعی در مقابل آف‌لاین) می‌شود. براساس چنین فاکتورهایی، سیسکو از این محیط همکارانه‌ی جدید به عنوان توانایی موبایل بودن (کاربران می‌توانند از هر جایی به محیط کار خود دسترسی داشته باشند)، اجتماعی (ارتباطات می‌تواند در بیش از یک روش یک به یک، مثل یک به چند و چند به چند ظاهر شود)، بصری (ویدئو به روش‌های متعددی یکپارچه می‌شود) و مجازی (ابرهای خصوصی یا عمومی برنامه‌های کاربردی،دیتا، و غیره را به روشی ایمن از طریق شبکه‌های هوشمندی که ابزار کارکنان را به هم متصل می‌کند تحویل می‌دهند) یاد می‌کند. نتیجه‌‌ی نهایی، یک ارتباط مبتنی بر کاربر و محیط همکارانه است که آزادی انتخاب روشی که کارکنان می‌خواهند به منظور به حداکثر رساندن مزایای همکاری از آن بهره‌مند شوند برای آنان فراهم می‌کند. درمقایسه با جایگزین‌هایی که در حال حاضر مورد بهره‌برداری قرار دارند، سیسکو می‌گوید این فضای همکارانه‌ی جدید، شخصی‌سازی، یکپارچه‌گی در تمام ابزار، توانایی انتخاب روشی که کارکنان می‌خواهند اطلاعات را از آن طریق دریافت کنند و این که آن‌ها چگونه دوست دارند با یکدیگر ارتباط برقرار کنند و انعطاف‌پذیری لازم برای کارکنان در جهت انتخاب ابزار براساس ارجحیت‌های شخصی و گزینه‌هایی که از طرف سازمان در دسترس آنان قرار می‌گیرد فراهم می‌کند. سیسکو می‌گوید این فضای همکارانه‌ی جدید حالت‌های مختلف پیام‌رسانی،صدا، ویدئو، و کنفرانس را فراهم می‌کند که هر یک از منظر قابلیت‌های توکار خود بسیار پیشرفته هستند. علاوه بر این، تحت مدل همکارانه‌ی جدید، حضور از حالت ساده‌ی “آزاد” یا “گرفتار” به حالات متعددی مثل وضعیت، وسیله،زمان،مکان، و پهنای باند در دسترس تبدیل می‌شود و بدین ترتیب بهترین نوع ارتباطات و همکاری را در بین طرف‌های مختلف ایجاد می‌کند.

آن را به واقعیت تبدیل کنید

همان‌گونه که سیسکو توضیح می‌دهد، قدرت و هدف استفاده از تکنولوژی همکاری، به افراد کمک می‌کند تا حد امکان طبیعی عمل کنند. سیسکو معتقد است بنگاه‌های تجاری می‌توانند با فراهم نمودن امکان کار بدون محدودیت برای کارکنان خود، درگیر کردن  آنان از طریق فراهم کردن ابزار همکاری برای اتصال به سایرین، و توان‌مندسازی آنان برای توسعه‌ی ایده‌ها و حل مشکلات به چنین موقعیتی دست پیدا کنند. روش ساختاری که سیسکو برای فراهم نمودن توانایی ایجاد چنین محیط‌هایی در پیش می‌گیرد روشی است که براساس مقیاس‌پذیری، امنیت، و در دسترس بودن شکل می‌گیرد؛ در عین حال موبایل بودن، ویدئو، و عملکرد ابری را برای فراهم نمودن امکان همکاری کارکنان در هر زمان، از هر مکان و با استفاده از هر ابزاری ایجاد می‌کند. در بین مزایای بی‌‌شماری که سیسکو در رشد و توسعه‌ی چنین محیط کاری می‌بینند، توانایی توسعه‌ی ارتباطات بهتر در تمام سطوح سازمان است. بدین ترتیب این مزایا شامل یک سلسله مراتب تخت، قابلیت‌های تصمیم‌گیری سریع‌تر و بهتر، توانایی ورود سریع‌تر محصولات به بازار، بهره‌وری توسعه‌یافته، صرفه‌جویی‌های متعدد (به زمان، انرژی، و هزینه‌های سفر فکر کنید)، و ایجاد پاسخ‌گویی بهتر به مشتریان از طریق دسترسی سریع‌تر به مهارت‌ها و تخصص‌ها و اطلاعات در داخل کمپانی قرار دارد. برای فعال‌سازی واقعی و طبیعی ارتباطات هر فرد به هر فرد، سیسکو مدعی است که روش، محصولات و سرویس‌های این کمپانی به کارکنان اجازه می‌دهد از ابزاری که قبلا در اختیار داشتند به شکلی ایمن‌تر استفاده کنند و بهترین موقعیت‌های میتینگ را از طریق Cisco TelePresence و WebEx فراهم کنند. سیستم سیسکو در عین حال  کارکنان را قادر می‌کند از طریق ویدئو،UC، و ابزار حضور(presence)  با افراد بیرون از سازمان ارتباط برقرار کنند و با استفاده از مدل‌های پیاده‌سازی ابری سیسکو و interoperability پلتفرم هزینه‌ها را پائین بیاورند. برای این که ویدئو به بخشی طبیعی از همکاری بدل شود، سیسکو می‌گوید درست مثل کاری که در زمینه‌ی صدا از طریق شبکه برای بنگاه‌های تجاری کرده است، همین کار را برای ویدئو نیز انجام داده. علاوه بر این،به جز در اختیار داشتن گسترده‌ترین مجموعه‌ی ویدئویی برای یکپارچه‌سازی ویدئو، سیسکو مدعی است “تنها ساختار ویدئوی تجاری که برای مقیاس‌پذیری، سرعت و قابلیت اطمینان” طراحی شده است در اختیار دارد. در جایی که هدف، فراهم نمودن قابلیت همکاری ازطریق ابر است، سیسکو می‌تواند دامنه‌ی وسیعی از برنامه‌های کاربردی همکاری که صدا، ویدئو، وب و پاسخ‌گویی به مشتری را در بر می‌گیرد فراهم کند؛ آن را از طریق ابرهای خصوصی، عمومی و هیبریدی فراهم کند؛ کلاینت‌های دسک‌تاپ و برنامه‌های کاربردی مجازی‌سازی شده را از طریق سیسکو، تامین‌کننده‌های سرویس و شُرکای خود تحویل دهد؛ و به پیاده‌سازی یک تجربه‌ی کاربری یکپارچه در تمام مدل‌ها و ابزاری که به کار می‌گیرد کمک کند.

 منبع:ماهنامه بزرگراه رایانه

مایکروسافت به جنگ کلمات عبور ساده می‌رود

مایکروسافت در یک روش جدید، کلمات عبور غیرخلاقانه و قابل‌حدس‌ کاربران را تایید نمی‌کند.

به گزارش افتانا (پایگاه خبری امنیت فناوری اطلاعات)، گزارش سالیانه SplashData به نام «فهرست بدترین کلمات عبور» که شامل رمزهایی مثل ۱۲۳۴۵ و Qwerty و Password بود انگیزه‌ای شد که مایکروسافت به برخی کلمات عبور، اجازه استفاده در تعدادی زیرساخت ازجمله Xbox Live و آفیس ۳۶۵ ندهد. این قانون به‌زودی برای Azure نیز پیاده‌می‌شود.

در این اقدام منحصر به‌فرد مایکروسافت، کاربرانی که از این نوع کلمات عبور استفاده‌می‌کنند با اخطاری مواجه‌می‌شوند که می‌گوید «کلمه‌ عبوری انتخاب‌کنید که به‌سختی قابل‌حدس‌ باشد» و این کاربران مجبور می‌شوند کلمه‌ عبور خلاقانه‌تر و در‌نتیجه امن‌تری انتخاب‌کنند.

درحالی‌که این ابتکار مایکروسافت قطعاً به توقف رخنه به‌ حساب کاربران کمک خواهد‌کرد، اما این روش برای جمعیت بسیار کاربران تایید‌کننده شبکه شرکت، واقعاً چیزی صورت‌نمی‌دهد. چند نسخه قبل‌تر مایکروسافت کنترل کلمات عبور خوبی را پیاده‌کرد که تصور می‌شد مزایای بسیاری دارد زیرا چند نوع کاربر مختلف می‌توانستند به کلمات عبور مختلفی نیاز داشته‌باشند. برای مثال، یک فروشنده ممکن است به یک کلمه عبور ۸ رقمی با دو نوع حروف یعنی حرف بزرگ و کوچک نیاز داشته‌باشد درحالی‌که شاید لازم باشد مدیران سامانه‌ها از یک کلمه عبور ۱۲حرفی استفاده‌کنند. موارد دیگر نیز بسته به گروه‌های مختلف، تاریخچه کلمه عبور و حداکثر و حداقل سن کلمه عبور متغیر بوده‌‌است.

این روش گامی در مسیر مناسب بود اما به عدم استفاده از کلمه عبور‌های ساده، کلمات عبور افزایشی، Password.۱ و Password.۲ و مانند اینها کمکی نکرده‌‌است. همچنین استفاده از نام شرکت، نام خود کاربران و غیره را نیز جلوگیری نکرده‌‌است. به‌محض اینکه کلمه عبور با معیارهای پایه‌ای تنظیم‌می‌شوند، مورد قبول قرار‌می‌گیرند.

همچنین برنامه‌های تجاری وجود دارد که برای شبکه شرکت به این موضوع می‌پردازند و در همان زمان یک رابط کاربری گرافیکی (GUI) ارائه‌می‌دهند که نشان‌می‌دهد کلمه عبور در حال نوشته‌شدن با قوانین پیچیده‌ای مطابقت دارد. برای مثال این قوانین می‌توانند به‌گونه‌ای تنظیم شوند که اجازه استفاده از حروف تکراری یا اعداد افزایشی و همچنین تعدادی حروف خاص را ندهند.

استفاده از یک برنامه کلمه عبور خودتنظیمی و روشن‌کردن کلمات عبور پیچیده برای یک سازمان رایگان است و هیچ بار اضافی به سازمان IT یا به مرکز سازمان وارد نمی‌کند. این برنامه‌ها بیشتر شبیه وب‌گاه‌های بانکداری هستند: کاربران از طریق جواب‌دادن به یک‌سری پرسش انتخابی چالش‌برانگیز در این برنامه ثبت‌نام‌می‌کنند. کاربران در صورت فراموشی کلمه‌ عبور پیچیده یا از روی خود وب‌گاه یا از طریق لینک «کلمه عبورم را فراموش‌کرده‌ام» روی صفحه ورود ویندوز، می‌توانند کلمه عبور خود را تغییر دهند.

این روشی که مایکروسافت در حال اجرای آن ‌است، حرکتی در مسیر درست برای محافظت از کاربران در برابر رخنه‌‌هاست. برنامه‌هایی مانند مدیریت پیچیدگی کلمه عبور و بازنشانی کلمه عبور توسط خود فرد از سازمان‌ها نیز حمایت‌می‌کند بدون اینکه باری اضافی به سازمان IT وارد‌کند.

امید می‌رود که سال بعد «فهرست بدترین کلمات عبور» کوتاه‌تر شده‌باشد یا حداقل حاوی کلمات عبوری سخت‌تر از«Password» و امثال اینها باشد.

اچ پی اینترپرایز کابل های پر سرعت انتقال دیتا می‌سازد

شرکت اچ‌پی اینترپرایس (HPE) برنامه‌هایی جدی برای توسعه‌ی کابل‌های انتقال اطلاعات دارد و درصدد است تکنولوژی‌های نوری و لیزری را در این صنعت وارد کند. این شرکت قصد دارد از لیزر و نور به صورت گسترده‌تر برای انتقال اطلاعات استفاده کرده و سیم‌های مسی رایج را منسوخ کند.

در جدیدترین مراسم این شرکت، مادربوردی مجهز به یک ماژول نوری معرفی شده که قابلیت انتقال اطلاعات با سرعتی برابر با ۱.۲ ترابیت بر ثانیه دارد. این سرعت انتقال از تمامی ارتباطاتی که در حال حاضر برای انتقال دیتا معرفی شده‌اند، بیشتر است و می‌توان این اتصالات جدید را به عنوان جایگزینی برای کابل‌های مسی امروزی که به عنوان کابل شبکه استفاده می‌شوند، معرفی کرد.

سیم‌های مسی در پورت‌های کامپیوترهای شخصی و لپتاپ‌ها نیز استفاده می‌شوند و مطمئنا تا جایگزینی آنها با سیستم جدید، زمان زیادی باقی مانده است. اما برای مقایسه‌ی سرعت این اتصالات بهتر است بدانیم که حداکثر سرعت پورت یو‌اس‌بی ۳ حدود ۱۰ گیگابیت بر ثانیه و حداکثر سرعت انتقال اطلاعات در پورت تاندربولت ۳، حدود ۴۰ گیگابیت بر ثانیه است. در نتیجه اتصالات و کابل‌های جدید سرعتی بسیار بیشتر از این اتصالات خواهند داشت.

مایکل مک‌براید (Michael McBride) مدیر آزمایشگاه طراحی سیلیکونی HPE درباره‌ی این اتصالات و ماژول سیلیکونی فتونیک این شرکت که X1 نام دارد می‌گوید: “در آینده اتصال فیبرهای نوری به کامپیوترها و لپتاپ‌ها، به سادگی اتصال کابل‌های شبکه‌ی معمولی خواهد بود.” البته این ماژول جدید در حال حاضر در مرحله‌ی آزمایش است و پس از نهایی شدن در طراحی سرور جدید این شرکت با نام The Machine استفاده خواهد شد.

برد طولی ماژول X1 از حدود ۳۰ تا ۵۰ متر است. البته اچ‌پی اینترپرایس در مراسم خود از تکنولوژی سیلیکونی فتونیکی با سرعت انتقال اطلاعات ۲۰۰ گیگابیت بر ثانیه و با برد طولی ۵۰۰ کیلومتر نیز رونمایی کرد.

در حال حاضر نور در مکانیزم‌های انتقال اطلاعات در مسیرهای طولانی و شبکه‌های بزرگ ارتباطی استفاده می‌شود. بعلاوه شنیده شده شرکت اینتل نیز در حال کار روی ماژول سیلیکونی فتونیک مخصوص خود است و البته مشخص نیست که این دو شرکت با یکدیگر همکاری می‌کنند یا خیر.

اساس کار کابل‌های نوری این‌گونه است که از امواج نوری با طول موج‌های مختلف برای انتقال اطلاعات استفاده می‌کنند. کابل‌‌های نوری می‌توانند مشکلات زیاد پهنای باند سرورها را حل کنند. در حال حاضر سرورها در معرض انتقال مقدار زیادی اطلاعات قرار دارند و کابل‌های مسی کنونی جوابگوی بخشی از این نیاز هستند. اجرایی شدن استفاده از کابل‌های نوری می‌تواند باعث پیشرفتی بزرگ در صنعت انتقال اطلاعات و سرورها شود.

اتصالات جدید که شرکت HPE معرفی کرده، در سطح رک‌های تجهیزات شبکه استفاده خواهند شد و در آینده‌ای نزدیک رک‌ها شامل بخش‌هایی مجزا برای پردازنده، حافظه و رم خواهند بود که ارتباطات نوری به عنوان بخشی مهم در آنها استفاده خواهند شد. بعلاوه، بدلیل کاهش حجم کابل‌ها نسبت به کابل‌های مسی، استفاده از کابل‌های نوری به صرفه‌تر خواهد بود.

کامپیوتر جدید اچ پی مثل مغز انسان عمل می‌کند

شرکت اچ‌پی نمونه اولیه از رایانه‌ای را طراحی کرده که می‌تواند همانند مغز انسان برای انجام محاسبات عمل کند. این محصول بر اساس ساختار جدیدی تولید شده که می‌تواند روش عملکرد رایانه‌های آینده را به ما نشان دهد.

مغز را می‌توان به عنوان یک رایانه بسیار بهینه بیولوژیک در نظر گرفت. مغز در واقع می‌تواند اطلاعات زیادی که از طریق چشم، گوش، حس کردن بو و… بدست می‌آورد را بدون هیچ کاهش سرعتی که در رایانه‌ها معمولا وجود دارد، پردازش کند.

در واقع هدف اچ‌پی ساخت چیپ‌های کامپیوتری‌ است که می‌توانند با سرعت زیاد بر اساس احتمالات و اطلاعات موجود محاسبات لازم را انجام داده و تصمیمات لازم را بگیرند که این در واقع همان روش عملکرد مغز انسان است.

این چیپ‌ها با استفاده از مدل‌های یادگیری و الگوریتم‌ها می‌توانند پاسخ تقریبی را برای گرفتن تصمیم اعلام کنند.

در حالی که تا ارائه این نوع چیپ‌ها به صورت عمومی سالیان زیادی را باید صبر کنیم اما شرکت HP هم اکنون در حال تست اولیه نوع این مدل چیپ‌ها است که بر اساس روش کارکرد مغز انسان کار می‌کنند. این نمونه اولیه برای نخستین بار در کنفرانس Discover که در شهر لاس‌وگاس برگزار شده به نمایش درآمد و هدف اصلی از طراحی این محصول همانطور که اشاره شد ایجاد یک رایانه است که بر اساس روش کارکرد نورون‌ها و سیناپس‌های مغز فعالیت می‌کند.

مغز شامل شبکه‌ای از تعداد بسیار زیادی نورون است که در بین آن‌ها میلیاردها ارتباط برقرار شده است. به محل هر کدام از این اتصال‌ها یک سیناپس می‌گویند که به منظور برقراری ارتباط مورد استفاده قرار می‌گیرند. تقریباً ۱۰۰ میلیارد نورون به صورت موازی در مغز فعالیت می‌کنند که اتصالات یاد شده را ایجاد کرده و اطلاعات را با استفاده از سیگنال‌های الکتریکی و شیمیایی انتقال می‌دهند. محققان شرکت hp سعی دارند تا این مکانیسم را در یک مدار سیمی پیاده سازی کنند.

Car Graves که یکی از دانشمندان محقق در آزمایشگاه‌های HP است می‌گوید: “ما با استفاده از تکنولوژی ممریستور خود و نیز ساختار خاصی که طراحی کرده‌ایم در حال ایجاد ساختار محاسباتی موازی مانند مغز هستیم.”

ممریستورها در واقع نوعی از حافظه‌ها هستند که می‌توانند به آینده سیستم‌های هوش‌مصنوعی کمک کنند تا این سیستم‌ها بتوانند داده‌ها را فهمیده و استفاده بیشتری از آن ببرند. آنچه گفته شد تفاوت بین SSDهای امروزی و DRAM ها است چراکه SDD ها و DRAM ها فقط می‌توانند اطلاعات را ذخیره کنند. همانند سیناپس‌ها یادگیری و نگهداری داده‌ها در ممریستورها بر اساس ویژگی‌های جریان‌دار داده‌ها مشخص می‌شوند.

داده‌ها در مغز در نورون‌ها یا سلول‌های خاصی ذخیره می‌شوند و محاسبات لازم برای انجام وظایفی مثل تشخیص یک عکس یا صوت در این نوع سلول‌ها انجام می‌شود. این روش در واقع طرح پشت پرده ساختار اچ‌پی برای رایانه‌های جدیدی است که همانند مغز انسان عمل می‌کنند.

Graves می‌گوید: «با استفاده از این طرح پتانسیل زیادی را برای افزودن قدرت فوق‌العاده بیشتر و نیز بهینه بودن بیشتر در مصرف انرژی در پردازنده‌ها و حافظه‌ها دارد.»

در رایانه‌های معمولی، داده‌ها برای انجام فرآیندهای پردازشی از حافظه ذخیره‌سازی خارج شده و سپس به پردازنده و حافظه پردازشی ارسال می‌شوند که این موضوع می‌تواند منابع سیستمی زیادی را درگیر کند. ساختار اچ‌پی خلاف این روش عمل می‌کند و در واقع محاسبات را در همان محل‌هایی که داده‌ها ذخیره شده‌اند انجام می‌دهند، درست همانند روش عملکرد مغز. سپس بین سلول‌های مختلف اتصال ایجاد خواهد شد و این بخش نیز همانند روش کارکرد سیناپس‌ها است.

Graves می‌گوید: «با چنین ساختاری، محاسبات موازی زیادی می‌توانند انجام شوند چنین محاسباتی ضریب ماتریسی بردار نامیده می‌شوند که این نوع محاسبات نیز در واقع قلب الگوریتم‌های محاسباتی فشرده و اپلیکیشن‌هایی مثل فیلترگذاری روی عکس یا تشخیص صدا و سیستم‌های یادگیری عمیق است.»

محققان اچ‌پی همچنان در حال توسعه ممریستورها هستند و آن‌ها را در ساختارهایی شبیه به شبکه توری تنظیم می‌کند که نهایتا باعث ایجاد رایانه‌ای به نام Dot Product Engine می‌شود. محققان همچنین می‌توانند ساختارهای تور شکل را تست کنند تا بهترین و متفاوت‌ترین نوع الگوریتم‌ها را ایجاد کنند.

محققان ۸۰۰۰ محاسبه را در یک سیکل ساعت در یک ممریستور خاص مدیریت کرده‌اند. Graves اعلام کرد: «با چیپ‌های واقعی که از این ساختار بهره می‌برد سرعت انجام محاسبات بسیار بالاتر خواهد بود چراکه تمامی مراحلی که هم اکنون در بخش‌های مختلف انجام می‌شود در یک چیپ یکپارچه قرار داده شده‌اند.»

البته این چیپ‌های جدید جایگزین پردازنده‌های کنونی یا پرازشگرهای گرافیکی فعلی نخواهند شد. هر نوع از محاسبات در یک چیپ نورون‌مانند در نزدیکی همدیگر و بر اساس احتمالات انجام می‌شوند و به همین دلیل ممکن است کاملا دقیق نباشند.

Graves می‌گوید: «برای برخی از انواع اپلیکیشن‌ها البته نیاز به داده‌های دقیقی نیست. ولی برای مواردی چون تراکنش‌های بانکی شما قطعا ریاضیات تقریبی را پیشنهاد نمی‌کنم.»

این نوع چیپ‌ها احتمالا به عنوان یک پردازنده کمکی رفتار خواهند کرد که می‌توانند هوش را در انجام وظایف یک رایانه  از جمله تشخیص یک عکس یا صوت اضافه کنند.

روش اچ‌پی متفاوت با دیگر کمپانی‌ها نظیر کوالکام است. شرکت‌هایی مثل کوالکام در حال حاضر از روش‌های مبتنی بر نرم‌افزار استفاده می‌کنند و برخی دیگر نظیر IBM بر ساختارهای متفاوت در چیپ‌ها تکیه کرده‌اند.

تحقیق مورد بحث در اچ‌پی فعلا در روزهای اولیه خود به سر می‌برد اما Graves از همین حالا برای آینده رایانه‌هایی با هوش مصنوعی که می‌توانند همانند مغز یک انسان عمل کنند بسیار هیجان‌زده است. در هرحال مشخصا مدتی طول می‌کشد تا اچ‌پی بتواند یک چیپ کاربردی بر اساس روش کاری مغز تولید کند.

Graves در پایان می‌گوید: «هنوز پاسخ تمام سوالاتی که در این زمینه وجود دارد را نمی‌دانیم، اما کار خود را با سرنخ‌های خوب و کاربردی‌ که یافته‌ایم آغاز کرده‌ایم.»

نظر شما در این مورد چیست؟ آیا اچ‌پی موفق به تولیپ چیپی خواهد شد که همانند مغز انسان عمل کند؟

وجود خطاهای امنیتی در راه‎حل‌های EMC و VMware

خطاهای امنیتی مؤثر بر VMware و EMC به مهاجمان اجازه دسترسی غیرمجاز به سامانه می‌دهد.

یک آسیب‌پذیری‌ در EMC Data Domain OS گزارش شده‌است که مهاجمان می‌توانند با استفاده از آن سامانه آلوده را به خطر بیندازند.

EMC Data Domain OS سامانه عاملی است که روی واحدهای پشتیبانی دیسک اجرا می‌شود. این آسیب‌پذیری به خرابکاران اجازه می‌دهد که به‌عنوان یکی از کاربران مجاز وارد سامانه شده و به اطلاعات وی دسترسی یابند.

طبق اطلاعیه‌ای که توسط EMC منتشر شده‌است، دامنه اطلاعات از طریق GUI، شناسه جلسه‌ کاربری را وارد یک پرونده می‌کند که در دسترس همه کاربران قرار دارد. مهاجم می‌تواند با استفاده از شناسه جلسه، کنترل حساب قربانی را به‌دست بگیرد.

EMC به‎روزرسانی امنیتی‌ برای نسخه ۵.۵ و ۵.۶ و ۵.۷ EMC Data Domain OS را منتشر کرده‌است. طبق توصیه‌نامه VMSA-۲۰۱۶-۰۰۰۷، به‌روزرسانی‌های محصولات VMware و vCNS آسیب‎پذیری نرم‎افزار VMware را وصله می‌کند.

وجود خطاهای امنیتی در راه‎حل‌های EMC و VMware

وجود خطاهای امنیتی در راه‎حل‌های EMC و VMware

همان‌طور که این شرکت در توصیه‎نامه‌اش ذکر کرده‌‌است، مهاجم می‌تواند با استفاده از این آسیب‌پذیری به اطلاعات حساس کاربران دسترسی یابد.

در این توصیه‎نامه آمده: « VMware NSX و vCNS با SSL-VPN حاوی یک آسیب‎پذیری حیاتی در تایید ورودی است. این خطا می‌تواند به مهاجم اجازه دسترسی به اطلاعات حساس را بدهد».

VMware وصله‎های امنیتی را برای NSX Edge نسخه ۶.۱ و ۶.۲ و vCNS Edge نسخه ۵.۵ منتشر کرده‌‌است.

مدیران VMware نیز آسیب‎پذیری بحرانی تزریق اسکریپت میان وب‌گاهی دیگری در VMware vRealize Log Insight پیدا کردند که VMSA-۲۰۱۶-۰۰۰۸ نام گرفت.

مهاجمان از این حفره برای سوءاستفاده از جلسه یک کاربر معتبر استفاده‌می‌کنند. این توصیه‎نامه امنیتی از مدیران می‌خواهد که با استفاده از نسخه‌های ۲.x و ۳.x وصله‎های موجود را به‌کار گیرند.

مایکروسافت استارتاپ WAND LABS را خرید

مایکروسافت ظاهرا همچنان در حال پر کردن سبدخرید خود است. پس از اینکه چند روز قبل این شرکت شبکه اجتماعی Linkedin را خریداری کرد، حالا یک خرید دیگر را نیز انجام داده، اما اینبار پای یک استارت‌اپ متفاوت با خرید قبلی ردموندی‌ها در میان است. مایکروسافت اقدام به خرید استارت‌اپ Wand Labs کرده که تنها ۷ کارمند دارد و در دره سیلیکون مستقر است. هدف این استارت‌اپ یکپارچه کردن سرویس‌های مختلف چت است تا در با انجام فعالیت کمتر بتوان کار بیشتری انجام داد. بنابراین ممکن است انتظار داشته باشید تا بات‌های پیشرفته‌تری از جانب مایکروسافت ارائه شوند.

 مایکروسافت استارتاپ WAND LABS را خرید

مایکروسافت استارتاپ WAND LABS را خرید

David Ku in از مایکروسافت در وبلاگ مایکروسافت اینگونه نوشته است: «این خرید به هدف و استراتژی ما برای ارائه خدمات ارتباطی به عنوان یک پلفترم که ساتیا نادلا در کنفرانس BUILD 2016 آن را معرفی کرد، سرعت می‌بخشد.» وی در ادامه می‌گوید: «تکنولوژی Wand Labs باعث بهبود جایگاه ما در صنعت رو به رشد ارتباطات هوشمند خواهد شد. ما از این طریق قدرت زبان مردم را با هوش پیشرفته ماشینی ترکیب می‌کنیم. همچنین بین افراد و دانش، اطلاعات، سرویس‌ها و … ارتباط برقرار می‌کنیم.»

اما پس از این خرید مایکروسافت تغییراتی در سرویس‌های Wand ایجاد می‌کند. مدیرعامل این استارت‌اپ Vishal Sharma به این نکته اشاره کرده که طرفداران این سرویس می‌توانند انتظار داشته باشند تا المان‌های آشنایی را در کارهای‌ آینده ما ببینید.» این گفته می‌تواند به معنای اضافه شدن قابلیت‌هایی خواهد شد که از جمله می‌توان به امکان اشتراک‌گذاری موسیقی‌ها و کنترل لوازم هوشمند خانگی شما اشاره کرد.

Ku نوشته: «تجربه تیم Wand در سیمانتک، سرویس‌های نقشه، توسعه و یکپارچه سازی شخص ثالث و… باعث شده تا به گزینه‌های مناسبی برای اضافه شدن به تیم مهندسی بینگ محسوب شوند، بخصوص که این تیم در زمینه هوش مصنوعی و چت‌بات‌ها نیز تجارت خوبی دارند.» وی در ادامه اینگونه بیان داشته: «ما اطمینان داریم که Sharma و تیمش می‌توانند سهم قابل توجهی در بخش نوآوری‌های هوش‌مصنوعی بینگ داشته باشند و این یک عصر جدید برای مکالمات به عنوان یک پلتفرم است.»

نظر شما در مورد این خرید جدید چیست؟

ابزار جدید Refresh Windows امکان نصب آسان ویندوز ۱۰

 ابزار جدید Refresh Windows امکان نصب آسان ویندوز ۱۰

برای بسیاری اتفاق افتاده است که پس از مدتی استفاده از ویندوز، مجبور به نصب مجدد آن می‌شوید تا از مشکلات و کندی اجرای نرم‌افزارها رها شوید. مایکروسافت ابزار تازه‌ای به نام Refresh Windows را معرفی کرده است که فرایند نصب مجدد ویندوز ۱۰ را ساده می‌کند.

 ابزار جدید Refresh Windows امکان نصب آسان ویندوز 10 را فراهم می‌کند

ابزار جدید Refresh Windows امکان نصب آسان ویندوز ۱۰ را فراهم می‌کند

مایکروسافت ابزار تازه‌ای را برای کاربران ویندوز اینسایدر ارائه کرده است که به کمک آن می توانید نسخه‌ی تمیز و بدون نرم‌افزار از ویندوز ۱۰ را به سادگی بر روی کامپیوتر خود نصب کرده و جایگزین سیستم‌عامل فعلی خود کنید. این ابزار که Refresh Windows نامیده می‌شود در نسخه‌ی ۱۴۳۴۲ ویندوز ۱۰ قرار دارد و قرار است به همراه آپدیت سالیانه‌ی ویندوز ۱۰ تابستان امسال در اختیار عموم کاربران ویندوز ۱۰ قرار گیرد.

فرایند جایگزین شدن نسخه‌ی تمیز ویندوز ۱۰ با نسخه‌ی فعلی آن سریع و بسیار آسان خواهد بود.

برای دانلود Refresh Windows می‌توانید به صفحه مربوط به آن در سایت مایکروسافت مراجعه کنید. اما پیش از آن در نظر داشته باشید که برای استفاده از این ابزار باید حداقل ۳ گیگابایت دانلود کنید و همچنین اینترنت شما باید آنقدر سریع باشد که بتوانید فایل ایمیج ویندوز ۱۰ را از طریق خود این بازار دریافت کند. همچنین در نظر داشته باشید که استفاده از این ابزار باعث می‌شود تا تمام نرم‌افزارهایی که خودتان بر روی ویندوز نصب کرده‌اید پاک شوند و تنها نرم‌افزارهای استاندارد مایکروسافت مانند مجموعه‌ی آفیس بر روی دستگاه باقی می‌ماند. البته تنظیمات و فایل‌های ذخیره شده در آفیس نیز پاک خواهند شد و همه چیز به حالت روز اول نصب کردن نرم‌افزارها باز می‌گردند.

بررسی هارد درایو سیگیت Backup Plus Slim

هارد دیسک درایو‌های خانواده Backup Plus Slim شرکت سیگیت (Seagate) در طرح‌ها و اندازه‌های مختلفی وجود دارند. شرکت سیگیت در این نسل از هارد درایو‌های خود بر روی ظرفیت، عملکرد و قابلیت حمل بهتر، تمرکز کرده است. با نتکو همراه باشید تا در ادامه هارد درایو بکاپ پلاس اولترا اسلیم با حافظه ۲ ترابایتی را بررسی کنیم.

شرکت سیگیت به عنوان یکی از بهترین تولیدکننده‌های هارد درایو شناخته می‌شود. هارددیسک Backup Plus Ultra Slim نسخه‌ی جدیدتر Seagate Backup Plus Slim است که باریک‌تر و سبک‌تر شده است. این هارد دیسک به منظور اهمیت نیاز کاربران به گرفتن نسخه‌ی پشتیبان یا بک‌آپ از فایل‌ها و داده‌های خود، طراحی و ساخته شده و در ۲ ظرفیت ۱ و ۲ ترابایت در دسترس است.

هارد درایو بکاپ پلاس اولترا اسلیم از آخرین فناوری‌های HDD استفاده می‌کند و اکنون به لطف مهندسان شرکت سیگیت این هارد درایو تنها ۹.۶ میلی‌متر ضخامت دارد. این دستگاه به صورت باندل با ۲۰۰ گیگابایت حافظه ذخیره‌سازی وان‌درایو همراه شده و با نرم‌افزار‌های Lyve و Seagate Dashboard سازگار است. نرم‌افزار Seagate Dashboard به کاربران این امکان را می‌دهد تا خیلی سریع بتوانند از تصاویر، ویدیو‌ها و کلا فایل‌های موجود بر روی حافظه خارجی خود نسخه پشتیبان تهیه کنند. این هارد درایو طبق قول شرکت سازنده قرار است تا سرعت ۱۲۰ مگابایت بر ثانیه برای انتقال محتوا در اختیارتان قرار دهد که در استفاده‌های معمولی و حتی حرفه‌ای نیز مقدار بسیار خوب و راضی کننده‌ای است.

دیسک سخت خارجی بک‌آپ پلاس اسلیم با گارانتی شرکت سازگار ارقام در بازار عرضه می‌شود.

مشخصات فنی

  • موجود در دو ظرفیت ۱ و ۲ ترابایت
  • پشتیبانی از USB 3.0 و USB 2.0
  • ابعاد ۱۱۳.۵ در ۷۶ در ۹.۶ میلی‌متر
  • وزن ۱۳۵ گرم
  • سرعت چرخش: ۵۴۰۰ دور در دقیقه
  • پشتیبانی از USB 3.0
  • سایز هد ۲.۵ اینچ
  • نرم افزار‌های: Seagate Dashboard و Lyve App
  • حداکثر سرعت: ۱۲۰ مگابایت بر ثانیه با درگاه USB 3.0
  • مقاوم در برابر شوک و لغزش
  • سازگار با سیستم‌عامل‌های ویندوز، مک، اندروید و iOS

طراحی

هارد درایو بکاپ پلاس اولترا اسلیم سیگیت از ظاهر کم‌نظیری برخوردار است. در قاب جلویی این دستگاه شاهد مشبک‌های دایره‌ای شکل هستیم که در زمان دست زدن به آن حالت گودی و دایره‌ای مانند آن‌ها را حس خواهید کرد. شاید بتوان این شکل‌های دایره‌ای را به طراحی توپ‌های گُلف مشابه دانست که از همین نوع گودی‌های دایره‌ای برخوردارند و اتفاقا حالا در زمانی که آن‌ها را بر روی یک هارد درایو مشاهده می‌کنیم ظاهر متفاوت و جذابی پیدا کرده‌اند. در یکی از همین دایره‌ها لوگوی شرکت سیگیت را مشاهده خواهید کرد که در یکی از گوشه‌ها قرار گرفته است. درست در یک گوشه دیگر و درون یک گردی دیگر نیز شاهد چراغ مستطیلی و باریک نشانگر وضعیت اتصال دستگاه هستیم.

بررسی هارد درایو سیگیت Backup Plus Slim

بررسی هارد درایو سیگیت Backup Plus Slim

مهم‌تر از هر چیزی، هارد درایو جدید سیگیت از اندازه بسیار خوبی برخوردار شده و البته که بسیار هم نازک است. در زمان در دست گرفتن این هارد درایو متوجه این باریکی و در نتیجه خوش دست بودن دستگاه خواهید شد. با ضخامت ۹.۶ میلی‌متری این هارد درایو می‌توانید آن را در هر جایی مانند جیب‌های شلوار و کت یا کیف‌های مختلف قرار دهید.

با نگاهی به پشت دستگاه متوجه لوگوی بزرگ سیگیت که همان حرف “S” است می‌شویم که با مشکی تیره‌تر خودنمایی می‌کند. در بخش بالایی پشت دستگاه که از پلاستیک ساخته شده، تاییدیه‌ها، بارکد‌ها، شماره سریال، مدل و دیگر موارد در اندازه‌هایی کوچک قرار گرفته‌اند.

اگر نگاهی به کنارهای دور تا دور این هارد درایو بیندازید، به راحتی متوجه دو تکه بودن این هارد درایو از بخش‌های کناری که در دو رنگ مختلف هستند خواهید شد.

سیگیت با خلاقیتی که چاشنی طراحی ظاهری این هارد درایو کرده توانسته دستگاه شیکی بسازد که در دو رنگ زیبای نقره‌ای و طلایی در دسترس است. در بسیاری از اوقات که قصد استفاده از هارد درایو خود را دارید، بخش جلویی آن را بر روی میز قرار می‌دهد و خوشبختانه طراحی بخش جلویی هارد درایو سیگیت بهتر از پشت آن خودنمایی می‌کند.

سخت افزار و بازده

هارد درایو سیگیت بکاپ پلاس اولترا اسلیم در هر دقیقه ۵۴۰۰ دور سرعت چرخش دارد. این دستگاه در برابر لغزش‌ها و شوک‌ها مقاوم است اما متاسفانه شرکت سیگیت آن را در برابر آب، گرد و غبار، خش و ضربه مقاوم نکرده است. بنابراین بهتر است از این هارد در مکان‌هایی که امکان ضربه خوردن وجود دارد یا در معرض آب قرار می‌گیرد، استفاده نکنید. همچنین در استفاده‌های روزمره باید مراقب باشید که خط و خش مخصوصا بر روی ظاهر جلویی دستگاه نیافتد.

برای آزمایش سرعت خواندن و نوشتن این هارد درایو از نرم‌افزار‌های بنچمارک‌گیر استفاده کرده‌ایم تا بتوانیم صحت ادعای شرکت سازنده را امتحان کنیم.

بررسی هارد درایو سیگیت Backup Plus Slim

بررسی هارد درایو سیگیت Backup Plus Slim

در آزمایش بنچمارک HD Tune Pro این هارد دیسک از شرکت سیگیت توانست تا حداقل سرعت ۶۲ مگابایت بر ثانیه، حداکثر سرعت ۱۳۹ مگابایت بر ثانیه و متوسط سرعت انتقال فایل‌ها را به ۱۰۵.۳ مگابایت بر ثانیه برساند.

بررسی هارد درایو سیگیت Backup Plus Slim

بررسی هارد درایو سیگیت Backup Plus Slim

در آزمایش بعدی که با CrystalDiskMark گرفته شده نیز می‌توانید سرعت خواندن ۱۳۳.۱ مگابایت بر ثانیه و سرعت نوشتن ۱۲۹.۶ مگابایت بر ثانیه را مشاهده کنید.

در آزمایش مشخص شد که ادعای شرکت سازنده مبنی بر انتقال با سرعت ۱۲۰ مگابایت بر ثانیه صحیح است. این مقدار سرعت با درگاه USB 3.0 انجام شده و برای استفاده‌های معمولی و پیشرفته نیز می‌تواند جوابگوی شما باشد.

جمع بندی

سیگیت با ساختن هارد درایو Backup Plus Ultra Slim در دو رنگ نقره‌ای و طلایی خواسته این دستگاه را به عنوان هاردی لوکس برای استفاده‌های مختلف بدانیم. خوشبختانه این شرکت قیمت بالایی برای این هارد درایو تعیین نکرده است. اگر دوست دارید یک حافظه ذخیره‌سازی داشته باشید که در هر جایی بدون دغدغه سختی حمل و نقل و ظرفیت ذخیره سازی از آن استفاده کنید، هارد درایو Backup Plus Ultra Slim را می‌توان یکی از بهترین گزینه‌های موجود دانست.

این دستگاه که از دو ظرفیت ۱ و ۲ ترابایتی پشتیبانی می‌کند، می‌تواند علاوه بر آن ظرفیت‌های ۱ و ۲ گیگابایت پیش‌فرض خود تا ۲۰۰ گیگابایت حافظه را از فضای ذخیره سازی One Drive در اختیار شما قرار دهد تا بتوانید از فضای ذخیره‌سازی ابری نیز در هر جایی که هستید استفاده کنید و به فایل‌های خود نیز دسترسی داشته باشید. علاوه بر این مقدار فضا، سیگیت همچنین پشتیبانی از نرم‌افزار Lyve را برای پشتیبان‌گیری راحت‌تر از طریق سیستم‌عامل‌های اندروید و iOS فراهم کرده است.

یکی دیگر از فاکتور‌های مهم در انتخاب هارد درایو‌ها سرعت انتقال آن‌ها است که Backup Plus Ultra Slim ثابت کرد می‌تواند به سرعتی که شرکت سیگیت قول آن را داده بود دست پیدا کند.

سرعت، امنیت، ظرافت؛ مسئــله ایــن اسـت!

 

امروزه کامپیوترها در همه جا حضور دارند و از صنایع گوناگون تا خانه‌ها، اغلب کارها به‌سرعت به کمک این ماشین‌‌ها انجام می‌پذیرند. ماشین‌‌های محاسبه‌گر از سخت‌افزارهای مختلفی تشکیل شده‌‌اند که طراحی و تولید هر یک از آن‌ها نیازمند فناوری‌های پیچیده و ایجاد سازوکارهای گسترده است. مادربرد، پردازنده، حافظه‌‌ها، کارت گرافیک و ذخیره‌سازها، بخش‌های اصلی سخت‌افزاری سیستم‌‌های کامپیوتری را تشکیل می‌دهند و ارتباط بی‌وقفه و تنگاتنگ هر یک از آن‌ها باعث می‌شود که دستورالعمل‌‌ها و درخواست‌های دریافتی را به بهترین شکل و بیشترین سرعت پردازش در اختیار کاربران قرار دهند.

در میان مجموعه سخت‌افزارهای کامپیوتر، ذخیره‌سازها از جایگاه ویژه‌ای برخوردارند. این مهم به دلیل نوع ارتباط ذخیره‌سازها با بخش‌‌های دیگر و اهمیت نگهداری و استفاده مکرر داده‌های تولیدشده، حساسیت بیشتری پیدا می‌‌کند. در حقیقت، آنچه به واسطه ارتباط سایر بخش‌های یک سیستم کامپیوتری تولید می‌شود، برای مراجعات بعدی از طریق سخت‌افزارهایی چون پردازنده و حافظه‌‌ها، بر روی ذخیره‌سازها ثبت می‌شوند. از سال‌‌های گذشته، هارددیسک‌‌های مکانیکی رایج‌ترین ذخیره‌سازهای عرضه‌شده برای کامپیوترهای شخصی بوده‌‌اند که هزینه تولید پایین، این ابزار را به بهترین ذخیره‌ساز جهان تبدیل کرده است.

اما نیاز به سرعت بیشتر،  ناکارآمدی ساختار و فناوری‌‌های به‌کاررفته در هارددیسک‌‌ها را مشخص کرد. تولید فناوری‌‌های مدرن در صنعت کامپیوتر باعث شد تا سرعت کارکرد سخت‌افزارها پیشرفت چشمگیری کند. سرعت و فرکانس پردازنده‌‌ها و حافظه‌‌ها رشد شایان توجهی داشته و این مهم باعث شده است پهنای باند بالایی برای رفت‌وبرگشت داده‌ها میان پردازنده، حافظه‌‌ها و هارددیسک مورد نیاز باشد. هارددیسک‌‌ها با وجود ارائه خدمات متنوع برای صنعت کامپیوتر، بسیار آسیب‌پذیر هستند. یکی از نقاط ضعف هارددیسک‌‌ها، ساختار مکانیکی آن‌ها است و این باعث شده ریسک از بین رفتن داده‌ها در این ابزار به‌شدت افزایش یابد. ایجاد خطوط فیزیکی بر اثر اصابت هد خواننده به صفحه‌های پلاتر و خرابی هر یک از المان‌های برد الکترونیکی هارددیسک دو عامل مهم در خرابی هارددیسک‌‌ها هستند.

افزایش حافظه نهان، افزایش سرعت موتور چرخنده و کاهش اندازه پلاترها، سه روشی بود که متخصصان برای افزایش سرعت عملکرد و کاهش زمان تأخیر در هارددیسک اعمال کردند.photo_2016-06-16_09-38-43

اگرچه ایجاد مشکل در برد الکترونیکی با تعویض برد سالم و مشابه رفع می‌شود و اغلب اطلاعات صدمه‌ای نمی‌بیند؛ اما ایجاد خطوط فیزیکی توسط هد خواننده باعث می‌شود تا بیشتر مواقع، اطلاعات کلی هارددیسک در دسترس نباشد و بدون استفاده بماند. مشکل بزرگ دیگر اینکه هارددیسک‌‌ها نمی‌توانند پا‌به‌پای پردازنده و حافظه‌‌ها پیش روند؛ زیرا در هارددیسک‌‌ها، سرعت آماده‌سازی اطلاعات سیستم کمتر از داده‌های مورد نیاز پردازنده است که این موضوع به افزایش زمان تأخیر در ارسال داده‌‌ها و در نتیجه کاهش سرعت نهایی کامپیوتر می‌انجامد. پلاترهای هارددیسک از زمان راه‌اندازی کامپیوتر تا خاموش شدن آن مدام در حال چرخش هستند و هدهای متصل به بازوی مکانیکی برای یافتن و اجرای یک فایل به‌خصوص مجبورند سرتاسر سطح پلاترها را جست‌و‌جو و فایل مدنظر کاربر را اجرا کنند. ریسک از دست‌ رفتن اطلاعات و افزایش زمان تأخیر (میلی‌ثانیه) عواملی بود که باعث شد محققان به دنبال جایگزینی مناسب برای هارددیسک باشند.

افزایش حافظه نهان، افزایش سرعت موتور چرخنده و کاهش اندازه پلاترها، سه روشی بود که متخصصان برای افزایش سرعت عملکرد و کاهش زمان تأخیر در هارددیسک اعمال کردند. شاید هارددیسک‌‌ها با این‌گونه بهینه‌سازی‌هایی توانستند فاصله خود را از قافله رشد سریع پردازنده و حافظه‌‌ها حفظ کنند؛ اما واضح بود که این ابزار ذخیره‌ساز سنتی فاصله زیادی با انتظارات کاربران دارند. بیش از یک دهه از تولید ذخیره‌سازی اطلاعات بر روی حافظه‌‌های سیلیکونی (حافظه‌‌های فلش) می‌گذرد و قابلیت حمل آسان، امنیت مناسب و قیمت ارزان، این ابزار کوچک و کارآمد را به الگوی سیلیکونی محبوب مبدل ساخته است. پس از حافظه‌‌های فلش، ایده تولید ذخیره‌سازهای سیلیکونی NAND و جایگزینی آن‌ها با هارددیسک مطرح شد و به‌سرعت به چرخه تولید راه پیدا کرد.

 ورود تولیدات چینی بزرگ‌ترین تهدید برای سازندگان درایوهای سیلیکونی است و کاهش قیمت زیادی که به دنبال ورود این محصولات به بازار مصرف، سازندگان ذخیره‌سازها را متضرر کرده، سبب شده است تا شرکت‌‌هایی چون اینتل،سامسونگ ، میکرون و توشیبا متحد شوند و خطر سقوط بیش از اندازه قیمت SSDها را در بازارهای جهانی، کنترل کنند.

اولین نمونه‌های دیسک‌های سیلیکونی آزمون‌های سرعت و پایداری را با موفقیت پشت سر گذاشتند و توانستند نظر کاربران کامپیوترهای شخصی را جلب کنند. خوشبحتانه برای جایگزینی SSD با هارددیسک مکانیکی کامپیوتر، احتیاجی به پیش‌نیازها نیست و خرید درایو جامد، نصب و اتصال آن به مادربرد، بیشترین کاری است که کاربران برای افزایش سرعت کامپیوتر و ضریب اطمینان بالاتر باید انجام دهند. اما پشت پرده بازار درایوهای حالت جامد، سیاست‌های راهبردی سازندگان این ابزار است. در نیم دهه گذشته، تولید اطلاعات روز‌به‌روز در حال افزایش بوده است و این باعث شده تا تقاضا برای ذخیره‌ساز‌های حجیم (هارددیسک) روند صعودی را تجربه کند.

سرعت، امنیت، ظرافت؛ مسئــله ایــن اسـت!

سرعت، امنیت، ظرافت؛ مسئــله ایــن اسـت!

از سوی دیگر، بازدهی بالای درایوهای جامد جبهه جدیدی را در میدان رقابت میان سازندگان هارددیسک و SSD باز کرد. سیر نزولی قیمت ذخیره‌سازهای سیلیکونی و ارائه کارایی بیشتر، سرآغاز گسترش و محبوبیت این ابزار شد و طولی نکشید که این نوع ذخیره‌سازها در سبد خرید کاربران قرار گرفتند. اما موضوع مهم دیگر، تلاش بزرگانی چون سامسونگ و اینتل است که به دنبال جلوگیری از کاهش شدید قیمت SSDها هستند.

سیر نزولی قیمت ذخیره‌سازهای سیلیکونی و ارائه کارایی بیشتر، سرآغاز گسترش و محبوبیت این ابزار شد و طولی نکشید که این نوع ذخیره‌سازها در سبد خرید کاربران قرار گرفتند

 ورود تولیدات چینی بزرگ‌ترین تهدید برای سازندگان درایوهای سیلیکونی است و کاهش قیمت زیادی که به دنبال ورود این محصولات به بازار مصرف، سازندگان ذخیره‌سازها را متضرر کرده، سبب شده است تا شرکت‌‌هایی چون اینتل، سامسونگ، میکرون و توشیبا متحد شوند و خطر سقوط بیش از اندازه قیمت SSDها را در بازارهای جهانی، کنترل کنند. هرچند کاهش قیمت ذخیره‌سازهای سیلیکونی رضایت و خرسندی کاربران دسکتاپ و سیستم‌‌های سروربنیان را به دنبال خواهد داشت؛ ولی روند نزولی قیمت تراشه‌‌های ذخیره‌ساز و کنترلرها در نهایت به ضرر کاربران خواهد بود. در پرونده ویژه این شماره که در لابراتوار اختصاصی ماهنامه شبکه تهیه شده است، به بررسی ساختار، جایگاه و تکنولوژی‌‌های مورد استفاده در درایوهای حالت جامد خواهیم پرداخت و علاوه بر معرفی مدل‌های اقتصادی بازارهای جهانی و داخلی، به نکاتی که نیاز است تا در انتخاب SSD به آن‌ها توجه شود، اشاره خواهیم کرد.

سه هک کوچک افزایش سرعت وای‌فای


حتما تا کنون مطالب زیادی درباره افزایش سرعت و بهبود شبکه‌های وای‌فای خواندید و به برخی ترفندهای پیشنهادی عمل کردید. بدون اینکه بخواهیم شرح زیادی بدهیم به این سه ترفند بسیار کوچک و سریع زیر هم نگاهی بیندازید و مدنظرشان قرار بدهید تا بهترین سیگنال‌های وای‌فای را همیشه استفاده کنید.

– سوییچ کردن میان کانال‌ها
اگر شبکه وای‌فای را اسکن کردید و دریافتید تعداد زیادی دستگاه روی همان کانالی کار می‌کنند که روتر شما تنظیم شده است و تصمیم گرفتید کانال را عوض کنید، بدانید که افزایش یا کاهش یک کانال کمکی نخواهد کرد؛ چراکه هر کانال روی فرکانس کاری ۴/۲ گیگاهرتز تا پنج کانال مجاور را تحت تأثیر قرار می‌دهد. بنابراین بهتر است مثلاً از کانال ۶ به کانال‌هایی مانند ۱۱ یا ۱۴ پرش کنید تا مطمئن شوید از محدوده پنج کانال شلوغ خارج شده‌اید.

1465823510

۲- پهنای کانال
بسیاری از روترهای مدرن امروزی روی پهنای‌باند رادیویی ۴۰ مگاهرتز تنظیم شده‌اند. این پهنای‌باند تقریباً هفت کانال رادیویی کنار هم را تحت پوشش قرار می‌دهد. بنابراین ممکن است هم‌پوشانی روی هفت کانال به جای پنج کانال اتفاق بیفتد. به احتمال زیاد بسیاری از روترهای همسایه شما روی پهنای‌باند ۴۰ گیگاهرتز تنظیم شده‌اند. پس می‌توانید روتر خود را برخلاف تصور عمومی روی ۲۰ مگاهرتز تنظیم کنید تا کارایی وای‌فای را افزایش دهید.

۳- اسکن وای‌فای
اگر با به کارگیری دو ترفند گفته‌شده، هنوز احساس می‌کنید وای‌فای مشکل دارد و سیگنال‌های قوی دریافت نمی‌کنید یا کارایی وای‌فای بسیار کم است، ممکن است سیگنال‌های روتر شما با سیگنال‌های دیگر روترهای مجاور کاملاً هم‌پوشان شده باشند یا برخی تداخل‌های دیگر رخ داده باشد.
بهترین راهکار در این شرایط استفاده از نرم‌افزارهایی مانند InSSIDer برای ویندوز و Wi-Fi Explorer برای مک است. این نرم‌افزارها اطلاعات دقیق و کاملی از وضعیت تمام وای‌فای‌های همسایه مانند کانال‌های کاری، پهنای‌باند و طیف‌های هم‌پوشان هر سیگنال به دست می‌دهند. با کمک این نرم‌افزارها دوباره تنظیمات روتر را تغییر دهید تا به بهترین حالت ممکن برسید.

این ۵ عامل باورنکردنی سرعت وای‌فای شما را پایین می‌آورند

این ۵ عامل باورنکردنی سرعت وای‌فای شما را پایین می‌آورند

تا حالا به این فکر کرده‌اید که چه چیزی اعصاب شما را بیش از هر چیز دیگری به‌هم می‌ریزد؟ شاید موارد زیادی در حال گذر از ذهن شما باشد. ولی به عقیده خیلی از کاربران اینترنت هیچ چیزی بدتر از وای‌فای سرعت پایین وجود ندارد. در دنیای امروز که همه افراد به‌صورت آنلاین زندگی می‌کنند؛ داشتن یک ارتباط سریع و قابل اطمینان از هر مورد دیگری مهم‌تر است.

عوامل شناخته شده زیادی هستند که باعث می‌شوند سرعت وای‌فای کاهش یابد. ولی به‌غیر از آن؛ چند مورد هم هستند که زیاد شناخته شده نیستند ولی می‌توانند خرید اینترنتی و یا عادت بازدید از فیسبوک را مختل کنند. در زیر ۵ مورد از عواملی که شاید تا به‌حال به آن‌ها فکر نکرده باشید ولی در واقع در این مسئله بسیار دخیل هستند آورده شده است.

۱ – لامپ‌ها و یخچال‌ها

5 surprising things that can slow down your wi-fi 2

این دو مورد تا حد زیادی بستگی به محل قرار گرفتن روتر دارند. لامپ‌ها یکی از وسایل الکترونیکی هستند که با ارتباط اینترنتی شما تداخل ایجاد می‌کنند. اوایل ماه جاری میلادی؛ کارشناسان آف‌کام کشف کردند که لامپ‌ها در کنار یخچال‌ها؛ اسپیکرها؛ تلفن‌‌های بی‌سیم و دستگاه‌هایی که برای باز کردن در پارکینگ استفاده می‌شوند با سیگنال‌هایی که از سمت روتر به کامپوتر روانه می‌شوند نداخل ایجاد می‌کنند.

امواج رادیویی که از این دستگاه‌ها منتشر می‌شود درست مانند سیگنال‌هایی است که از سمت روتر به گیرند‌ه این امواج ارسال می‌شود. بهترین راه برای جلوگیری از چنین مشکلی آن است که روتر در جایی قرار داده شود که نزدیک به هیچ‌کدام از موارد اشاره شده یا هرگونه وسیله الکترونیکی دیگر نباشد.

۲ – وای‌فای همسایه‌تان می‌تواند مشکل‌ساز شود5 surprising things that can slow down your wi-fi 3

روترها سیگنال‌ وای‌فای را روی چند کانالی که در دسترس آن‌ها است منتشر می‌کنند البته فرکانس‌هایی که یک شبکه بی‌سیم می‌تواند روی آن‌ها کار کند. روترهای امروزی قادر هستند به‌صورت خودکار بهترین کانال موجود و در عین‌حال با کمترین تراکم را انتخاب کنند. ولی این بدان معنی است که ممکن است شما و همسایه‌تان در حال استفاده از یک کانال باشید.

اگر روترها بیش از اندازه به‌هم نزدیک باشند شاهد تداخل‌های بسیار جدی خواهید بود. برای رفع این مشکل می‌توانید از سرویس‌دهنده شبکه خود بخواهید کانال را عوض کند. معمولا آن‌ها در وبسایت خود نکاتی در مورد روترهای خود ارائه می‌دهند.

۳ – انسان‌ها5 surprising things that can slow down your wi-fi 4

تا حالا به این فکر کرده‌اید که چرا وقتی میهمان دارید وای‌فای شما به بدترین شکل ممکن عمل می‌کند؟ اگر فکر می‌کنید دلیل این مسئله وجود افراد زیاد با دستگاه‌های گوناگون است که همگی با هم و در یک زمان در حال استفاده از اینترنت هستند اشتباه ‌می‌کنید. یک از مواردی که می‌تواند روی سیگنال اثر منفی داشته باشد تعداد افرادی است که در آن مکان حضور دارند. یعنی حضور فیزیکی هر چه بیشتر باشد باعث افت کارایی روتر می‌شود. دانشگاه کالیفرنیا در یکی از تست‌های خود به این نتیجه رسید که با حضور فیزیکی افراد؛ سیگنال وایرلس به‌شدت دچار نوسان می‌شود.

به همین منظور دو روتر در دو نقطه مقابل هم در یک اتاق قرار داده شدند. زمانی‌که کسی در مسیر سیگنال حرکت می‌کرد سیگنال افت شدیدی نشان می‌داد و با افزایش افراد در فضای اتاق پخش می‌شد ولی در مسیر درست حرکت نمی‌کرد. دانشمندان امیدوارند با استفاده از این یافته‌ها بتوانند تعداد افراد حاضر در اتاقی را که از وای‌فای استفاده می‌کند متوجه شوند. این مسئله در عملیات جستجو و نجات و هم‌چنین در موارد امنیتی می‌تواند کاربرد بسیاری داشته باشد.

۴ – عادت به تلویزیون‌های اینترنتی5 surprising things that can slow down your wi-fi 5

یکی دیگر از مواردی که روی کارایی وای‌فای تأثیر دارد استفاده از شبکه‌های تلویزیون اینترنتی است که این روزها بحثش بسیار داغ است. هم‌چنین استفاده از سرویس‌های ابری مانند دراپ‌باکس؛ بازی‌های آنلاین و وبسایت‌های تورنت از دیگر موارد تأثیرگذار هستند. برای چنین موردی می‌توانید در روتر با استفاده از قابلیت Quality Of Service اپ‌‌ها را اولویت‌بندی کنید؛ در نتیجه به هرکدام از آن‌ها پهنای باند مشخصی تخصیص داده می‌شود.

۵ – مکانی که در آن هستید5 surprising things that can slow down your wi-fi 6مسلما منظور از این مورد آن نیست که لپ‌تاپ یا گوشی شما تا چه حد به روتر نزدیک است چون این مسئله کاملا واضح است. همان‌طور که همه تا به‌حال تجربه کرده‌اند برخی از نقاط از آنتن‌دهی و در نتیجه پوشش وای‌فای بهتری برخوردار هستند. تفاوت‌های جغرافیایی بطور قابل‌توجهی در میزان سرعت تأثیر دارند. در تست‌های مختلفی که در آمریکا صورت گرفته مشخص شده که خیابان ویلیامسون در منطقه کنت با سرعت ۰٫۵۳۵ مگابیت در ثانیه پایین‌ترین سرعت اینترنت را دارد.

چگونه ایمیل‌های ارسال شده در جی‌میل را لغو کنیم؟

چگونه ایمیل‌های ارسال شده در جی‌میل را لغو کنیم؟

بی‌شک برای شما هم بارها پیش آمده که ایمیل‌‌های اشتباهی را برای دوستان یا مخاطبانتان ارسال کرده‌اید. در این مواقع تنها آرزوی شما این است که ایمیل به دست دریافت کننده نرسد! اما سرویس پست الکترونیکی Gmail می‌تواند ایمیل‌های ارسالی شما را لغو کند. فقط کافی است که به بخش تنظیمات وارد شوید و گزینه “Undo Send” را فعال کنید.

1463820097

چگونه ایمیل‌های ارسال شده در جی‌میل را لغو کنیم؟

برای فعال‌سازی قابلیت “لغو ایمیل ارسالی” موارد زیر را دنبال کنید:

– وارد اکانت کاربری جیمیل خود شوید.
– از سمت راست بالای صفحه، وارد بخش Setting شوید.

Gmail-2 (2)– در این صفحه و در بخش “Undo Send”، گزینه “Enable Undo Send” را تیک بزنید.
– با فعال‌سازی این منو، جعبه “Send cancellation period” فعال می‌شود.
– با توجه به نیاز می‌توانید چرخه لغو کردن ایمیل ارسالی را بر روی ۱۰، ۲۰ یا ۳۰ ثانیه تنظیم کنید.Gmail-2– در انتهای این صفحه بر روی کلید Save Changes کلیک کنید تا تغییرات، ذخیره شوند.
– از این پس، لینکی به بخش نوتیفیکیشن جیمیل با عنوان Undo اضافه می‌شود که بسته به تنظیمات، ایمیل شما را از ۱۰ تا ۳۰ ثانیه با تاخیر ارسال می‌کند تا در صورت لزوم، زمان کافی برای لغو عملیات ارسال در اختیار شما قرار گیرد.Gmail-3

بزرگ ترین چالش برای تسلط بر بازار تراشه های ۷ نانومتری سامسونگ


بزرگ ترین چالش برای تسلط بر بازار تراشه های ۷ نانومتری سامسونگ

دو کمپانی سامسونگ و TSMC را باید در زمینه‌ی تولید و مونتاژ تراشه‌ها با آخرین فناوری‌های موجود در بازار، پیشتاز خواند. موریس چانگ، رئیس هیئت مدیره‌ی TSMC در اظهارات خود به این موضوع اشاره کرده که سامسونگ تنها چالش این کمپانی تایوانی برای تولید تراشه‌های مبتنی بر لیتوگرافی ۷ نانومتری است. با نتکو همراه باشید.

TSMC بزرگ ترین چالش برای تسلط بر بازار تراشه های ۷ نانومتری سامسونگ

TSMC بزرگ ترین چالش برای تسلط بر بازار تراشه های ۷ نانومتری سامسونگ

براساس اظهارات موریس یانگ، رئیس هیئت مدیره‌ی TSMC، سامسونگ بزرگ‌ترین چالش این کمپانی تایوانی در مسیر تسخیر بازار تراشه‌های مبتنی بر لیتوگرافی ۷ نانومتری است. از سال آینده‌ی میلادی تراشه‌های مبتنی بر لیتوگرافی ۷ نانومتری بصورت آزمایش توسط این کمپانی تایوانی تولید خواهد شد. تولید تراشه‌های آزمایشی به این معنی است که تراشه‌های تستی در طول خط تولید مورد آزمایش قرار می‌گیرند تا روند تولید تراشه‌ها به صورتی که باید به آخرین مرحله برسد. براساس برنامه‌ریزی‌های صورت گرفته تولید تراشه‌های مبتنی بر لیتوگرافی ۷ نانومتری باید از سال ۲۰۱۸ میلادی آغاز شود.

چانگ به این موضوع اشاره کرده که TSMC از نظر تکنولوژی تولید این تراشه‌ها برتری‌هایی را در مقایسه با سامسونگ دارد و می‌تواند به یک کمپانی پیشرو در زمینه‌ی تولید تراشه‌های مبتنی بر لیتوگرافی ۷ نانومتری تبدیل شود. البته باید به این موضوع نیز اشاره کرد اینتل نیز به عنوان یکی از کمپانی‌های پیشرو در حوزه‌ی ساخت تراشه‌ها، در آینده‌ی نزدیک محصولات خود را مبتنی بر لیتوگرافی ۷ نانومتری راهی بازار خواهد کرد، اما باید به این موضوع اشاره کرد که اینتل را باید در زمره‌ی دوستان TSMC به شمار آورد.

براساس اطاعات ارائه شده توسط مارک لیو، مدیرعامل TSMC همزمان با کنفرانس سالانه‌ی فناوری این کمپانی که ماه گذشته برگزار شد، به این موضوع اشاره کرده که TSMC موفق شده تا بهره‌وری تولید تراشه‌های ۱۲۸ مگابایتی SRAM را از ۳۰ به ۴۰ درصد افزایش دهد. وی به این موضوع اشاره کرده TSMC اولین تولیدکننده‌ای خواهد بود که تراشه‌های مبتنی بر لیتوگرافی ۷ نانومتری را بصورت رسمی راهی بازار می‌کند.

اطلاعات ارائه شده توسط لیو نشان از این دارد که تولید انبوه تراشه‌های مبتنی بر لیتوگرافی ۱۰ نانومتری از ابتدای سال ۲۰۱۷ میلادی توسط TSMC آغاز خواهد شد. با توجه به زمان آغاز به تولید انبوه تراشه‌های ۱۰ نانومتری TSMC، هنوز مشخص نیست که یا A10‌ مورد استفاده در نسل جدید آیفون‌های اپل از وجود این فناوری استفاده خواهند کرد یا این تراشه نیز چون نسل گذشته مبتنی بر لیتوگرافی ۱۴ نانومتری راهی بازار خواهد شد. کاهش لیتوگرافی در ساخت‌ تراشه‌ها باعث می‌شود تا انرژی مصرفی بسیار کاهش یافته و در نتیجه حرارت تولید شده نیز کاهش یابد.

TSMC انتظار دارد تا تمام نیاز اپل به تراشه‌ی A10 را تامین کند، در حالی که نسل گذشته‌ی تراشه‌ی مورد استفاده در گجت‌های اپلی بصورت مشترک بین این کمپانی تایوانی و سامسونگ تولید شد.

نظر شما در این خصوص چیست؟

دل تکنولوژی کارت گرافیک اکسترنال خود را پیشرفته تر از تاندربولت ۳ می‌داند

دل تکنولوژی کارت گرافیک اکسترنال خود را پیشرفته تر از تاندربولت ۳ می‌داند

چند سالی است که تکنولوژی کارت‌های گرافیکی اکسترنال به کمک کاربرانی آمده که قصد دارند از بروزترین تکنولوژی کارت‌های گرافیک در سیستم‌های قدیمی لپتاپ و کامپیوترهای شخصی خود استفاده کنند. این تکنولوژی‌ کارت‌های گرافیک را درون محفظه‌های مخصوص نصب می‌کنند و با استفاده از پورت تاندربولت ۳ آن را به کامپیوتر شخصی یا لپتاپ متصل می‌کنند.

دل تکنولوژی کارت گرافیک اکسترنال خود را پیشرفته تر از تاندربولت 3 می‌داند

دل تکنولوژی کارت گرافیک اکسترنال خود را پیشرفته تر از تاندربولت ۳ می‌داند

تکنولوژی استفاده شده برای ساخت چنین دستگاه‌هایی، تکنولوژی XConnect شرکت AMD است. از دستگاه‌های عرضه شده به بازار که با اتصال تاندروبلت ۳ کار می‌کنند، می‌توان به Raze Core اشاره کرد که قیمتی حدود ۴۹۹ دلار دارد و برای اتصال به لپتاپ‌های Razer و مینی‌دسکتاپ‌های شرکت اینتل با نام Skull Canyon مناسب است.

اما شرکت Dell به تازگی یک مجموعه‌ی کارت گرافیک اکسترنال به نام Alienware Graphics Amplifier معرفی کرده که ادعا می‌کند اتصالاتی سریع‌تر و بهینه‌تر از اتصال تاندربولت ۳ ارائه می‌کند. این دستگاه از بروزترین کارت‌های گرافیک بازار پشتیبانی می‌کند و با پورتی انحصاری به کامپیوتر متصل می‌شود. همین اتصال انحصاری باعث شده که این آمپلی‌فایر تنها برای اتصال به برخی کامپیوترهای Alienware مناسب باشد و در نتیجه تعداد کاربران هدف آن محدود باشند.

اما این دستگاه جدید مزیت‌هایی نیز نسبت به رقبا دارد. این دستگاه از آخرین کارت‌های گرافیک GeForce مانند GTX 1080 و ۱۰۷۰ که بر پایه‌ی معماری پاسکال هستند، پشتیبانی می‌کند. Frank Azor مدیر بخش Alienware شرکت دل اعلام کرده که این قابلیت تنها در دستگاه‌های این شرکت وجود دارد و دستگاه‌های مجهز به تاندربولت ۳ از آن بی‌بهره هستند. بعلاوه، پهنای باند داخلی Alienware، تماما به گرافیک اختصاص پیدا می‌کند. این در حالی است که پهنای باند در دستگاه‌های مجهز به پورت تاندربولت ۳، برای دستگاه‌های مختلف مانند حافظه، صفحات نمایش مجزا و لوازم جانبی دیگر تقسیم می‌شود.

آمپلی‌فایر Alienware قیمتی حدود ۱۹۹ دلار خواهد داشت. این قیمت از قیمت ۲۹۹ دلاری که در سال ۲۰۱۴ برای این دستگاه اعلام شده بود کمتر است.

این دستگاه از تکنولوژی PCI-Express 3.0 استفاده می‌کند و می‌توان با تغییرات جزئی، آن را برای استفاده از تکنولوژی PCI-Express 4.0 بهینه کرد. زمان ارائه‌ی رسمی PCI-Express 4.0 هنوز مشخص نیست. البته سروری به نام Zaius توسط گوگل و Rackspace طراحی شده که گفته می‌شود از این تکنولوژی استفاده می‌کند.

درخواست بازار برای استفاده از تکنولوژی کارت‌های گرافیک اکسترنال در حال افزایش است. کاربرانی که قصد اجرای بروزترین بازی‌ها را روی لپتاپ‌ها و کامپیوترهای نسبتا قدیمی دارند، برای خرید این دستگاه‌ها اقدام می‌کنند. البته در طول سال‌های گذشته نیز لپتاپ‌ها با استفاده از پورت‌های PCI و ISA، امکان اتصال به کارت‌های گرافیک اکسترنال داشتند که با کوچک‌تر و باریک‌تر شدن لپتاپ‌ها، این پورت‌ها حذف شدند. حال با عرضه‌ی تکنولوژی‌هایی مانند پورت‌های تاندربولت ۳ و دستگاه Alienware شرکت دل، می‌توان گفت که استفاده از کارت‌های گرافیک اکسترنال وارد مرحله‌ی جدی‌تری شده است. تنها مورد باقی‌مانده این است که هنوز استاندارد واحدی برای این دستگاه‌ها عرضه نشده و همین امر استفاده از آنها را محدود کرده است.

اختصاصی نتکو: بررسی جدیدترین پردازنده Intel i7 6950X

اختصاصی نتکو: بررسی جدیدترین پردازنده Intel i7 6950X

چندی پیش کمپانی اینتل، نسل جدید پردازنده‌های خود با نام Boradwell-E را به صورت رسمی معرفی کرد که i7-6950X به عنوان پرچمدار اصلی آن‌ها شناخته می‌شود. با زومیت و بررسی اختصاصی این پردازنده همراه باشید.

بررسی جدیدترین پردازنده Intel i7 6950X

بررسی جدیدترین پردازنده Intel i7 6950X

پردازنده‌های نسل Boradwell-E کمپانی اینتل چندی پیش معرفی شدند و پردازنده i7-6950X با داشتن ۲۰ هسته فیزیکی و مجازی به عنوان بهترین آن‌ها شناخته می‌شود. این پردازنده مبتنی بر پلتفرم X99 اینتل است. در ادامه آن را بررسی خواهیم کرد.

معرفی پلتفرم X99 اینتل:

Intel X99 که با اسم رمز «ولس‌بورگ» شناخته می‌شود، یک تراشه مادربورد (PCH) ساخته شده توسط کمپانی مشهور اینتل است که با هدف استفاده در ایستگاه‌های کاری، سیستم‌های تولید محتوا و سیستم‌های خانگی قدرتمند توسعه یافته است. این چیپست از پردازنده‌های Intel Core i7 Extreme و Intel Xeon E5-16xx v3 and E5-26xx v3 پشتیبانی می‌کند که جزو پردازنده‌های خانواده Haswell-E و Haswell-EP هستند و اخیرا پشتیبانی از پردازنده‌های Broadwell-E نیز به آن اضافه شده است. تمامی پردازنده‌های پشتیبانی شده در این چیپست از سوکت LGA ۲۰۱۱-v3 بهره می‌برند.

چیپست X99 اولین بار اواخر آگوست ۲۰۱۴ همراه با پردازنده‌های Haswell-E عرضه شد و پردازنده‌های Haswell-EP هم اوایل ماه سپتامبر همان سال وارد بازار شدند.

CPU

 

معرفی پردازنده Broadwell-E i7-6950X:

کمپانی اینتل فعلا در مجموع ۴ پردازنده سطح بالای i7 را با استفاده از معماری Boradwell-E معرفی کرده است که شامل Core i7-6800K، Core i7-6850K، Core i7-6900K و در نهایت Core i7-6950X می‌شوند که آخری پرچمدار پردازنده‌های برادول-ای است. این CPU دارای ۱۰ هسته پردازشی فیزیکی و ۱۰ هسته مجازی است که تعداد کل هسته‌ای آن را به ۲۰ می‌رساند. فرکانس پایه این پردازنده ۳٫۰۰Ghz است که در حالت توربو به ۳٫۵۰Ghz می‌رسد. میزان Cache L3 این پردازنده هم ۲۵ مگابایت است. این پرازنده مبتنی بر چیپست X99 اینتل است و در نتیجه تمامی مادربرد‌های Gigabyte X99 قابلیت پشتیبانی از این پردازنده را دارند.

توان حرارتی این پردازنده ۱۴۰ وات است و امکان پشتیبانی از حافظه‌های DDR 4 تا فرکانس ۲۴۰۰MHz در آن فراهم شده است. در ادامه می‌توانید مشخصات کامل این پردازنده را در جدول زیر مشاهده کنید:

مدل پردازنده i7-6950X
پروسه ساخت ۱۴ نانومتری
فرکانس پایه ۳٫۰۰ گیگاهرتز
فرکانس توربو ۳٫۵۰ گیگاهرتز
کش سطح ۳ ۲۵ مگابایت
تعداد هسته‌های فیزیکی ۱۰
تعداد کل هسته‌های فیزیکی + مجازی ۲۰
نوع و فرکانس حافظه پشتیبانی شده DDR 4 – ۲۴۰۰MHZ
چیپست X99
سوکت LGA 2011-3
PCI Lanes ۴۰
توان حرارتی ۱۴۰ وات
قیمت ۱۷۲۳ دلار آمریکا

 

برای داشتن درک بهتری از توان این پردازنده، بنچمارک‌های مختلفی را روی سیستمی مجهز به آن اجرا کردیم که در ادامه می‌توانید نتایج این تست‌ها را مشاهده کنید:

مشخصات سیستم تست:

بررسی جدیدترین پردازنده Intel i7 6950X

بررسی جدیدترین پردازنده Intel i7 6950X

  • مادربرد: Gigabyte X99-Gaming 5
  • کارت گرافیک: Gigabyte GTX980Ti 6GB Xtreme Gaming
  • حافظه رم: ۴x4GB Crucial Ballistix Sport 2400MHZ
  • خنک کننده پردازنده: CoolerMaster V8 GTS
  • هارد دیسک: Samsung 840 EVO 120GB SSD
  • منبع تغذیه: CoolerMaster B700 V2
بررسی جدیدترین پردازنده Intel i7 6950X

بررسی جدیدترین پردازنده Intel i7 6950X

در ادامه می‌توانید نتیجه تست XTU این پردازنده را قبل و بعد از اورکلاک مشاهده کنید، کاملا واضح است که i7-6950X پتانسیل بسیار بالایی برای اورکلاک دارد و می‌تواند عملکرد بسیاری عالی را ارائه دهد:
بررسی جدیدترین پردازنده Intel i7 6950X

بررسی جدیدترین پردازنده Intel i7 6950X

در پایان هم می‌توانید نتیجه تست ۳D Mark را در ترکیب این پردازنده با کارت گرافیک Gigabyte GTX980Ti 6GB Xtreme Gaming مشاهده کنید که بر روی تست Fire Strike این برنامه اجرا شده است که بهترین گزینه برای سنجش توان پردازشی گرافیکی در سیستم‌های حرفه‌ای و مخصوص بازی است. همان‌طور که در تصویر زیر هم مشاهده می‌کنید، میزان فریم متوسط سیستم تست در این آزمایش در حدود ۴۰ است که رقم بسیار ایده‌عالی به‌شمار می‌رود.
بررسی جدیدترین پردازنده Intel i7 6950X

بررسی جدیدترین پردازنده Intel i7 6950X

نتکو به عنوان یکی از اولین رسانه‌های دنیا است که پردازنده i7-6950X را بررسی کرده است. این پردازنده توسط کمپانی گیگابایت (Gigabyte) در اختیار نتکو قرار گرفته است

گوگل دستیار هوشمند SpringBoard را برای مشتریان تجاری و سازمان رونمایی کرد

گوگل دستیار هوشمند SpringBoard را برای مشتریان تجاری و سازمان رونمایی کرد

گوگل از دو محصول جدید برای مشتریان سرویس‌های تجاری خود رونمایی کرد. یکی از آن‌ها را باید یک دستیار هوشمند خواند که Springboard نام دارد. این دستیار هوشمند که از هوش مصنوعی گوگل استفاده می‌کنند مخصوص کمپانی‌هایی است که از سرویس‌های تجاری گوگل بهره می‌برند. با نتکو همراه باشید.

گوگل دستیار هوشمند SpringBoard را برای مشتریان تجاری و سازمان رونمایی کرد

گوگل دستیار هوشمند SpringBoard را برای مشتریان تجاری و سازمان رونمایی کرد

برای درک بهتر ماهیت اسپرینگ بورد باید به این موضوع اشاره کنیم که این سرویس تاحدودی شبیه به سرویس Google Now است که در سیستم عامل اندروید برای کاربران طراحی و توسعه یافته است. در واقع با استفاده از SpringBoard که شامل یک رابط کاربری ساده حاوی یک کادر جستجو است، می‌توان از هوش مصنوعی برای دریافت اطلاعات مورد نیاز از میان سرویس‌های گوگل نظیر گوگل درایو، جی‌میل، تقویم، گوگا داکس و سایر موارد موجود استفاده کرد. پربهاکار راقاوان، قائم مقام بخش مهندسی در بخش توسعه‌ی اپلیکیشن‌های گوگل اهمیت این سرویس را به این جهت زیاد عنوان کرده که بصورت میانگین کاربران در کمپانی‌های مختلف یک روز را در هفته برای جمع‌آوری اطلاعات مورد نیاز خود صرف می‌کنند.

علاوه بر در اختیار گذاشتن امکان جستجوی هوشمند، اسپرینگ‌بورد قابلیت بسیار کاربردی دیگری نیز دارد که شامل ارائه‌ی اطلاعات کاربردی و پیشنهادات مختلف در جریان یک روز کاری است.

یکی دیگر از سرویس‌های ارائه شده توسط گوگل برای مشتریان تجاری و سازمان‌ها، Google Sites است. با استفاده از این محصول سازمان‌ها می‌توانند به طراحی و استفاده از پورتا‌های درون سازمانی برای انتشار خبرنامه‌ها و گزارش‌ها بپردازند. با استفاده از گوگل سایت می‌توان به سادگی و با استفاده از قابلیت Drag&Drop، به طراحی پرداخت. ضمنا گوگل از المان‌ها و ابزار‌هایی استفاده کرده که در سایر سرویس‌های این کمپانی نظیر گوگل داکس و گوگل شیت به یک استاندارد تبدیل شده است.

همچنین باید به این موضوع اشاره کرد که گوگل برای نمایش بهتر سایت‌ها در این پلتفرم، طراحی جدید را به کار گرفته تا محتوای سایت‌ها در انواع گجت‌ها با سایز نمایشگر و رزولوشن متفاوت به بهتری شکل نمایش داده شود، بطوریکه این پلتفرم از مانیتورهای ۳۰ اینچی نیز پشتیبانی می‌کند.

نظر شما در مورد سرویس‌های جدید گوگل چیست؟

چیپ جدیدی که از طریق USB قدرت لازم برای چهار نمایشگر ۴K را فراهم می‌کند

چیپ جدیدی که از طریق USB قدرت لازم برای چهار نمایشگر ۴K را فراهم می‌کند

مشاهده فیلم و عکس در نمایشگرهای ۴K لذت‌بخش‌ است، اما برای ارائه چنین کیفیتی پردازنده دستگاه‌ها باید قدرت لازم برای پردازش محتوایی با کیفیت بالا را داشته باشند. به تازگی یک چیپ جدید معرفی شده که می‌تواند قدرت لازم برای چهار نمایشگر با کیفیت ۴K را از طریق پورت USB فراهم کند.

1233

امروزه تکنولوژی‌های جدید سعی بر این دارند محتوای با کیفیت بالا را به سرعت و بدون مشکل روی نمایشگرها پخش کنند. با این وجود امکان دارد برخی از کاربران نیاز به مشاهده تصاویر و ویدیوهای خود در چند نمایشگر داشته باشند.

چیپ جدیدی به نام DL-6950 امکان خروجی گرفتن از دو مانیتور با کیفیت UltraHD و نرخ ۶۰ فریم بر ثانیه را با استفاده از یک اتصال USB برای کاربران فراهم می‌کند. سپس می‌توان دو نمایشگر یاد شده را به چهار صفحه‌نمایش گسترش داد. در نهایت می‌توان چهار نمایشگر با کیفیت ۴K را به صورت همزمان در اختیار داشت که این امر برای بسیاری از کاربران می‌تواند بسیار کاربردی باشد.

اگر نیاز به مشاهده تصاویر و ویدیوهای خود در چند نمایشگر به صورت همزمان دارید، این پردازنده جدید قطعا به کارتان خواهد آمد. چیپ جدید مورد بحث می‌تواند با استفاده از یک USB برای نمایش تصاویر و ویدیوهای با کیفیت بسیار بالا  در چند نمایشگر مورد استفاده قرار گیرد. کمپانی سازنده این محصول حدود سه سال قبل نیز یک آداپتور ساخته که امکان استریم محتوای ۴K را از طریق USB 2.0 و USB 3.0 فراهم می‌کرد. اما این چیپ جدید یک جایگزین بسیار مناسب برای تبدیل کردن یک نمایشگر به یک کارت گرافیک قدرتمند است.

مادربوردهای سری ROG ایسوس آشنا شوید

با ویژگی های جدیدترین مادربوردهای سری ROG ایسوس آشنا شوید

در نمایشگاه کامپیوتکس امسال، محصولات متنوع زیادی معرفی شد که یکی از آن‌ها، سری جدید مادربوردهای ایسوس با نام Eapmage V Edition 10 بود که در ادامه می‌توانید با این محصول ایسوس از طریق بیانیه‌ی مطبوعاتی شرکت تایوانی بیشتر آشنا شوید.

در نمایشگاه کامپیوتکس ۲۰۱۶، پس از معرفی پردازنده‌های جدید مبتنی بر چیپست X99 اینتل، ایسوس از جدیدترین مادربورد سری ROG خود با نام Rampage V Edition 10 رونمایی کرد. به مناسبت ۱۰ سالگی ROG، ایسوس مادربوردی قدرتمند را برای گیمرها و اورکلاکرهای حرفه‌ای با آخرین فناوری‌های اختصاصی خود طراحی و تولید کرد که در ادامه به بررسی آن می پردازیم:

همانطور که گفته شد، این مادربورد به مناسبت دهمین سالگرد ROG، محدودیت ها را برای گیمرها و اورکلاکرهای حرفه‌ای کنار زده است؛ به طوری که در روز نخست عرضه در مجموع ۱۷ رکورد جهانی در سایت Hwbot توسط این مادربورد جابجا شد. Rampage V Edition 10 برپایه چیپست X99 اینتل و سازگار با آخرین نسل پردازنده های سری Core i7 طراحی شده که به سوکت ابداعی ایسوس با نام OC Socket نیز تجهیز شده است.

حداکثر کارایی در بازی و اورکلاکینگ حرفه‌ای

نتایج بدست آمده حاکی از آن است که Rampage V Edition 10، مادربوردی همه فن حریف برای جابجایی رکوردها طراحی شده است. در روز نخست رونمایی از این مادربورد مجموعاً ۱۷ رکورد جهانی با کمک این مادربورد شکسته شد. همچنین توسط آن اورکلاکرها توانستند فرکانس ۵۷۲۶.۸۴ مگاهرتزی را برای پردازنده Core i7 6950X به ثبت برسانند.

بهترین مادربورد مخصوص بازی و اورکلاکینگ

99044bde-3a41-4c8f-b9a1-bf20cc375c18

به آخرین راهکارهای انحصاری ایسوس برای افزایش کارایی مجهز شده است. کاربر می‌تواند برای افزایش راندمان و اورکلاکینگ، تمامی تنظیمات پیچیده را تنها با یک کلیک اعمال کند. Fan Xpert 4 در این مادربورد می‌تواند سنسورهای حرارتی را کنترل کرده و نحوه عملکرد فن‌ها را به طور خودکار تنظیم کند. هدرهای مخصوص واتر پمپ نیز کاملاً با خنک کننده‌های آبی سازگارند و عملکرد تک تک هدرها قابل برنامه‌ریزی و بهینه سازی است. ایسوس با راهکار استفاده از هدر فن با آمپراژ بالا، امکان استفاده از فن های پرمصرف را نیز در این مادربورد نهادینه کرده تا خنک سازی به حداکثر برسد.

Rampage V Edition 10، با استفاده از چیپ اختصاصی Extreme Engine Digi+، مصرف و عملکرد مدار تغذیه را به طور کاملاً حرفه‌ای کنترل و مدیریت می‌کند. استفاده از مدار فاز اختصاصی، ماسفت‌های حرفه‌ای PowIRstage® IR3555 از شرکت Infineon، چوک‌های MicroFine alloy، و خازن‌های ۱۰K black-metallic، بهترین عملکرد، دوام و بهینه‌ترین میزان مصرف را در سخت‌ترین شرایط به همراه خواهد داشت. همچنین نسل جدید فناوری T-Topology ایسوس به کاربر امکان استفاده و پایداری بیشتر حافظه های DDR4 فراهم آورده است.

زیبایی، استقامت و سازگاری

Rampage V Edition 10 برای زیباتر کردن ظاهر سیستم از نورپردازی Aura RGB استفاده کرده است. همچنین یک هدر مجزا نیز به عنوان خروجی به نوار LED RGB وجود دارد که توسط نرم افزار مخصوص Aura کنترل و تنظیم می‌شود. همچنین با تقویت پوشش قسمت ورودی/خروجی، استحکام پورت‌ها و اتصالات را بیش از پیش بهتر کرده است.

راهکاری جدید که برای دوام هرچه بیشتر اسلات PCI Express در هنگام استفاده از کارت‌های گرافیکی سنگین وزن و طویل، ایسوس از SafeSlot استفاده کرده است. لایه‌ای پوششی به همراه لحیم مستحکم به برد، کل اسلات های PCI Express را در بر گرفته و وزن وارد شده با برد را در هر سه محور پخش می کند.

صدایی بی‌نقص، شبکه‌ای قدرتمند3488e398-bc9e-4826-a5db-392c935261e7

با فرانت پنل مجهز به SupremFX Hi-Fi عرضه می‌شود که صدایی با قدرت و کیفیت رده Hi-Fi را انتقال می‌دهد. DAC فوق العاده ESS® ES9018K2M، تقویت کننده ویژه Texas Instruments LM4562 و آمپلی‌فایر ویژه هدفن TPA6120A2 هارمونی بی‌نظیری از شفافیت، کیفیت و تفکیک پذیری را در صدا برای شنونده ایجاد کرده و برای بازی نیز نرم افزار Sonic Radar II همراه گیمرها خواهد بود.

همچنین Rampage V Edition 10 از آخرین کنترلرهای شبکه پیشرفته اینتل (I219-V  و I211-A) برای بازی تحت شبکه سریع، روان و بدون وقفه در نظر گرفته شده است که برای مدیریت بهتر شبکه از نرم افزار GameFirst III نیز استفاده می کند.

در این مادربورد امکان استفاده از پیکربندی با چند پردازنده گرافیکی وجود دارد و می‌تواند با تکنولوژی  SLI®/CrossfireX™ تا ۴ کارت گرافیک را همزمان پشتیبانی کند.

پیشرفته ترین اتصال و ارتباط نسل بعد

Rampage V Edition 10 به یک آداپتور شبکه بیسیم دو بانده ۸۰۲٫۱۱ac مجهز شده که توسط آنتن ۳×۳ آن می تواند حداکثر تا ۱۳۰۰ مگابیت بر ثانیه در محیط شبکه داده جابجا کند. آخرین فناوری NVM Express یا NVMe با رابط M.2 و U.2 برای اتصال سریعترین ذخیره‌سازهای حال حاضر در این مادربورد به کار گرفته شده‌اند که می توانند تا ۳۲ گیگابیت بر ثانیه اطلاعات را جابجا کنند. ایسوس همچنین هر دو مدل نوع A و C رابط USB 3.1 را در این مادربورد قرار داده و با فناوری USB 3.1 Boost سرعت انتقال آن را نیز بیش از پیش کرده است.

منبع:asus

کامپیوتکس ۲۰۱۶: پایان عصر CPU ها و آغاز حکمرانی GPU ها

کامپیوتکس ۲۰۱۶،

برخلاف همیشه اینتل چندان کانون توجه اصحاب رسانه نبود و در عوض انویدیا و AMD‌ که بیشتر روی واقعیت مجازی و هوش مصنوعی تمرکز کرده‌اند مورد توجه بودند. به نظر می‌رسد کم کم به پایان عصر سلطه CPUها می‌رسیم و زنگ‌ها برای شروع دوران جدیدی با حکمرانی GPUها به صدا درآمده‌اند.hp netco

در نمایشگاه کامپیوتکس سال ۲۰۱۶ که بزرگترین نمایشگاه تجاری حوزه فناوری اطلاعات در آسیا محسوب می‌شود، یک نکته مبهم و جود داشت و آن هم این بود که اینتل کجاست؟ این شرکت هیچ غرفه‌ای در این مراسم نداشت و فقط به یک مراسم معرفی بسنده کرد.

در ابتدای این نمایشگاه این برداشت وجود داشت که شاید امسال در این نمایشگاه شاهد چیز خاصی نباشیم. نمایشگاه کامپیوتکس همواره محلی برای جولان شرکت اینتل و نمایش جدیدترین دستاوردهای این شرکت در حوزه CPU و این که چه تغییراتی طی سال‌های آینده در این حوزه رقم خواهد خورد، بوده است.

با این وجود و بدون درخشش همیشگی اینتل هم نمایشگاه کامپیوتکس ۲۰۱۶  خیلی جذاب بود. روز قبل از شروع این رویداد، انویدیا و ایسوس چیزهایی به مخاطبان خود نشان دادند که به سرعت همه را متوجه آینده‌ای فراتر از CPUها کرد؛ CPUهایی که بطور سنتی سال‌ها به عنوان مغز متفکر رایانه‌ها بوده‌اند. به نظر می‌رسد قدرت واقعی که محرک دو فناوری مهم دهه آتی یعنی واقعیت مجازی و هوش مصنوعی است، واحد پردازشگر گرافیکی (GPU) باشد.

ربات Zenbo ایسوس از مهم‌ترین دستاوردهای کامپیوتکس ۲۰۱۶ است

ایسوس در این نمایشگاه نوت بوک‌های جدید خود را مجهز به نسل بعدی پردازنده‌های اینتل معرفی کرد که طی ماه‌های آتی به بازار عرضه می‌شوند. اما بدون شک یکی از مهم‌ترین محصولات این نمایشگاه Zenbo ربات خانوادگی ایسوس بود. این ربات از فناوری یادگیری ماشینی استفاده می‌کند تا به واقع کمکی برای خانواده باشد و با گذشت زمان با یادگیری بیشتر باهوش‌تر شود. این یک پروژه جاه طلبانه از سوی ایسوس است.

از سوی دیگر جن سون هونگ- یکی از بنیان گذاران انویدیا در صبحانه کاری خود با اصحاب رسانه اظهار داشت:

GPU مغز کامپیوترهای امروزی است. اگر شما به اکثر پیشرفت‌هایی که در حوزه واقعیت مجازی و هوش مصنوعی رخ داده نگاهی بیاندازید، یک چیز در هر دو مورد مشترک است و آن GPU‌ است. ۱۰ سال گذشته دوران فناوری ابری بوده و حالا دوران هوش مصنوعی است.

فعالیت‌های انویدیا واضح است. این شرکت روی کاری که GPUهایش انجام می‌دهند و هیچ چیز دیگری در حال حاضر قادر به انجامش نیست متمرکز شده است. البته حالا دیگر چیپ‌های انویدیا چیزی فراتر از پردازنده‌های گرافیکی هستند و حالا می‌توانند برای حل محاسبات چند تردی مورد استفاده قرار بگیرند. با توجه به این که واقعیت مجازی به رندر آنی محیط‌های ۳۶۰ درجه نیاز دارد، گرافیک هر روز به مبحث پیچیده‌تری تبدیل می‌شود. همچنین کامپیوترهایی که به ویژگی‌های یادگیری ماشینی و هوش مصنوعی مجهز هستند بر پایه واحد پردازش گرافیکی با سرورهای بزرگ فعالیت می‌کنند.

بنیان‌گذار انویدیا: دهه اخیر دوران فناوری ابری بوده و حالا دوران هوش مصنوعی است

درست در شرایطی که فکر می‌کردیم بازیکنان اصلی کامپیوتکس ۲۰۱۶، انویدیا و ایسوس هستند و این دو شرکت کانون توجه قرار گرفتند، AMD اعلام کرد که کارت گرافیک Radeon RX 480 خود را با قیمت ۱۹۹ دلار در اختیار خریداران قرار خواهد داد. این کارت گرافیکی مقرون به صرفه  با قدرت کافی که برای ارائه واقعیت مجازی دارد، می‌تواند تجربه واقعیت مجازی هدست‌هایی مانند Oculus Rift و HTC Vive را برای کاربران بیشتری محقق کند.

در نمایشگاه کامپیوتکس ۲۰۱۶، هیجان زیادی در رابطه با واقعیت مجازی وجود داشت. رایانه‌های شخصی در فرم فکتور کوله پشتی که واقعیت مجازی بدون نیاز به سیم‌‌های روی زمین را ممکن می‌کردند، به نمایش درآمدند. تولید کنندگان رایانه‌های شخصی، واقعیت مجازی را بهترین محرک برای بروزرسانی رایانه‌ها می‌دانند. مردم هم اگر بتوانند به واقعیت مجازی دسترسی داشته باشند،‌ عاشقش می‌شوند؛ از این رو شرکت‌ها امسال در تلاش هستند تا قیمت این فناوری را تعیین کنند. پالمر لاکی اواخر سال ۲۰۱۵ اعلام کرد:

واقعیت مجازی پیش از آن که هر کسی قادر به خرید آن باشد، تبدیل به چیزی می‌شود که همه خواهان داشتن آن هستند.

قیمت‌ها بدون شک پایین‌تر می‌آیند ولی این که «آیا به درد من هم میخورد؟» سوالی است که فقط GPU می‌تواند به آن پاسخ دهد. از آنجا که GPU‌ها هر سال نسبت به سال قبل بهتر می‌شوند بنابراین کیفیت تجربه واقعیت مجازی هم برای همه بهتر می‌شود.

پیش از این مایکروسافت موارد جذابی را در این زمینه با پلتفرم هولوگرافیک خود معرفی کرده بود. این حرکت مایکروسافت باعث سرعت رشد این صنعت شده و فرصت جدیدی برای رقابت بین واقعیت مجازی، واقعیت افزوده و واقعیت ترکیبی پدید آورد. با این حال هنوز هم همه چیز به قابلیت‌های گرافیکی بستگی دارد و این که چقدر تجربه بصری خوبی را می‌توانند فراهم کنند.

وقتی در جریان کامپیوتکس ۲۰۱۶، نوین شینوی- مدیر کل Client Computing Group شرکت اینتل روی استیج آمد تا در رابطه با نوت‌بوک‌ها و رایانه‌های دسکتاپ صحبت کند، چیز جذابی برای معرفی وجود نداشت. برای کسانی که به دنبال بیشترین قدرت ممکن بودند، چیپ‌های ۱۰ هسته‌ای جدیدی وجود داشت ولی وقتی به صحبت‌های مربوط به واقعیت مجازی توجه می‌کردیم، کلید واژه اصلی GPU‌ بود.

کلید واژه اصلی کامپیوتکس ۲۰۱۶ بیش از آنکه CPU‌ باشد، GPU‌ بود

اینتل بخش عمده‌ای از آینده خود را در شبکه‌های ۵G، مراکز داده و اینترنت اشیا می‌بیند. تمام این موارد مهم هستند ولی در تمام این موارد رقابت‌های سنگینی از سوی کوالکام و آرم وجود دارد.

از سوی دیگر جن سون هونگ- یکی از بنیان گذارن انویدیا معتقد است که انویدیا می‌تواند فناوری‌های پیشرفته برای واقعیت مجازی، هوش مصنوعی و خودروهای خودران ارائه کند که هیچ شرکت دیگری قادر به انجام آن نیست.

مقاله خود را این چنین آغاز کردیم که شاید کامپیوتکس امسال کم رونق باشد ولی واقعیت این است که امسال این نمایشگاه از هر سال دیگری تازه‌تر و پر رونق‌تر بود. حالا به نظر می‌رسد که هر جلوتر می‌رویم توجه‌ها از CPU‌ به GPU‌ جلب می‌شود. نظر شما در این مورد چیست؟

مایکروسافت با ۲۶.۲ میلیارد دلار لینکدین را تصاحب کرد

مایکروسافت در اتفاقی غیر منتظره شبکه اجتماعی لینکدین را با قیمت ۲۶.۲ میلیارد دلار به تصاحب خود درآورد. مایکروسافت این معامله را کاملا به صورت نقد انجام می‌دهد تا یک غول شبکه‌های کسب و کار را به تصاحب خود درآورده باشد. با نتکو همراه باشید.

مایکروسافت امروز در اتفاقی غیر منتظره شبکه اجتماعی لینکداین را که هر سهم آن هم‌اکنون ۱۹۶ دلار می‌ارزد به تصاحب خود درآورد.

ساتیا نادلا، مدیرعامل مایکروسافت گفته لینکداین همچنان برند، استقلال و حتی جف وینز مدیرعامل خود را حفظ خواهد کرد. نادلا در ادامه صحبت‌های خود گفت:

تیم لینکداین کسب و کاری فوق‌العاده را رشد داده‌اند تا افراد حرفه‌ای دنیا را به یکدیگر متصل کنند. با یکدیگر می‌توانیم رشد لینکداین، همچنین آفیس ۳۶۵ و Dynamics را سرعت ببخشیم تا به هر شخص و شرکت روی سیاره قدرت ببخشیم. مایکروسافت برنامه دارد تا تصاحب خود را تا اواخر امسال رسمیت ببخشد و این معامله اکنون بین هر دو هیئت مدیره شرکت‌ها به تایید رسیده است.

fe1a9413-60a9-4549-8e79-568587322a5b

این خرید را می‌توان اولین و بزرگترین خرید نادلا از زمان مدیرعاملی مایکروسافت در دو سال قبل دانست. به گفته نادلا مایکروسافت ترکیبی از «حرفه‌ای ترین رهبران ابری جهان» با «حرفه‌ای‌ترین شبکه جهان» انتخاب کرده‌ است.

این خرید را می‌توان هم از نظر ارزش خرید و هم از لحاظ کمپانی خریداری شده بزرگ دانست. بیشتر از ۴۳۳ میلیون کاربر به صورت جهانی از لینکداین استفاده می‌کنند تا با کمک آن شغل پیدا کنند یا با افراد هم‌تیمی یا هم‌دوره‌ای خود ارتباط برقرار کنند. همچنین بسیاری از کاربران لینکداین از سرویس پولی این وب‌سایت برای برخورداری از امکانات بیشتر استفاده می‌کنند.

مایکروسافت هنوز به صورت دقیق نگفته این خرید به چه دلیلی بوده اما به راحتی می‌توان تصور کرد که قرار است بخش شبکه‌های اجتماعی این شرکت را تقویت کند. مایکروسافت پیش از این بر روی فیسبوک سرمایه‌گذاری کرده بود اما اکنون با خرید لینکداین رسما وارد شبکه‌های اجتماعی شده است.

مایکروسافت البته پیش از این ۱.۲ میلیارد دلار برای Yammer در حدود ۴ سال قبل پرداخت کرده بود اما این کسب و کار آن طور که غول نرم‌افزاری دنیا انتظار آن را داشت پیش نرفت. مایکروسافت به زودی اطلاعات بیشتری از این تصاحب بزرگ منتشر خواهد کرد.

چرایی تصاحب لینکداین توسط مایکروسافت از زبان ساتیا نادلا

دقایقی پیش مایکروسافت اعلام کرد که سرویس لینکداین را با پرداخت بیش از ۲۶.۲ میلیارد دلار تصاحب می‌کند. اما چرا ردموندی‌ها سرویس لینکداین را مال خود کرده‌اند. ساتیا نادلا در ایمیلی به کارکنان کمپانی، دلایل تصاحب لینکداین را تشریح کرده است که در ادامه با بررسی آن می‌پردازیم. با نتکو همراه باشید.31fe9d68-8037-4950-91dc-cc323e9af2e5

اعضای تیم،

من بسیار هیجان زده هستم تا اعلام کنم که مایکروسافت امروز با لینکداین برای تصاحب این کمپانی به توافق رسیده است. شما می‌توانید برنامه‌های آینده‌ی من و جف وینر، مدیرعامل لینکداین را در زمان اعلام عمومی این توافق مشاهده کنید.

براساس این توافق حرفه‌ای‌ترین کمپانی فعال در حوزه‌ی ارائه‌ی سرویس‌های ابری در کنار بزرگ‌ترین شبکه‌‌ی حرفه‌ای از متخصصان قرار می‌گیرد. من اخیرا در مورد لینکداین مطالعات بسیاری را انجام داده‌ام، بطوری که می‌توان به روشنی دید که چگونه شبکه‌های بزرگ می‌توانند در سرویس‌های ابری تفاوت ایجاد کنند. کاملا روشن است که تیم لینکداین کار بسیار بزرگی را در ایجاد شبکه‌ای بسیار بزرگ و تاثیرگذار از متخصصان جهان که شامل ۴۳۳ میلیون نفر است، انجام داده است.

با توجه به اینکه تصاحب لینکدلین در زمان مدیریت من بزرگ‌ترین خرید مایکروسافت است، از این‌رو می‌خواهم نظر و دلایل خود برای این خرید را در ادامه تشریح کنم. من برای ارزش‌گذاری ابتدا به این موضوع فکر می‌کنم که آیا این دارای می‌تواند شانس ما را افزایش داده و موقعیت ما را بهبود بخشد؟ آیا این دارای دارای ترندهای فناوری کنونی پرطرفدار در دنیای فناوری هست یا خیر؟ آیا دارایی ما با اهداف و هسته‌ ی اصلی تجارت ما همخوانی دارد یا خیر؟

پاسخ تمام سوالات بالا در مورد لینکداین مثبت است. هر دو کمپانی درصدد رسیدن به هدف خاص و ارائه‌ی سرویسی به منظور تقویت هر چه بیشتر کاربران و سازمان‌ها هستند. در کنار رشد سرویس آفیس ۳۶۵ و Dynamics، این خرید می‌تواند تاکید بیشتری روی افزایش بهره‌وری و توسعه فرآیند تجاری توسط مایکروسافت باشد. به این موضوع فکر کنید که در دنیای امروز چگونه مردم شغل پیدا کرده، مهارت‌های خود را بالا برده و اجناس و سرویس‌های خود را به فروش رسانده و به هر شکل کار خود را به پیش برده و به موفقیت می‌رسند. تمام مراحل بالا نیازمند شبکه‌ای است که اطلاعات متخصصان را همچون لینکداین از طریق ابزراهایی نظیر آفیس ۳۶۵ و داینامیکس گرد هم آورده باشد. ترکیب دو سرویس مورد نظر باعث می‌شود تا کاربران با تجربیات جدیدی روبرو شوند. برای مثال می‌توان به مشاهده فیدخبری براساس پروژه‌ای که شما در حال کار روی آن هستید اشاره کرد، بطوریکه لینکداین از طریق محیط آفیس که شما در حال کار روی پروژه هستید، متخصصی را برای رفع مشکل پیشنهاد می‌دهد. نقاط اشتراک و در هم تنیدگی سرویس آفیس و لینکداین رفته رفته افزایش خواهد یافت، بطوریکه امکان درآمدزایی از طریق دریافت حق اشتراک و تبلیغات نیز امکان پذیر خواهد بود.

من و جف معتقدیم که شانس زیادی برای افزایش رشد لینکداین و ارائه‌ی سرویس‌های بیشتر به کاربران از طریق اختصاص منابع مایکروسافت داریم. زمانی که من با ریف هافمن، بنیان‌گذار لینکداین در مورد کنار هم قرار گرفتن دو کمپانی سخن گفتم، وی این موضوع را به سرمایه‌گذاری دوباره تشبیه کرد.

شانس پیشرفت برای آفیس ۳۶۵ و داینامیکس نیز بسیار بالا است. ما در طول یک دهه‌ی اخیر سرویس آفیس را از چند ابزار تولید و ویرایش محتوا به سرویس‌های ابری تبدیل کرده‌این. مرحله‌ی بعدی در مسیر پیشرفت آفیس و داینامیکس، اتصال این دو سرویس به بزرگ‌ترین شبکه‌ی تشکیل شده از متخصصان در سراسر دنیا است. ما با استفاده از ترکیب دو سرویس می توانیم راهکارهایی را در پیش بگیریم که با استفاده از آن‌ها بهره‌وری متخصصان بیش از پیش افزایش یافته و در عین حال فرآیند فروش، بازایابی و مدیریت نخبگان را نیز مدیریت کنیم.

یکی از فاکتورهای مهم، ادامه‌ی پیشرفت لینکداین است. برای تحقق این امر، لینکدلین به عنوان یک برند مستقل به کار خود ادامه داده و سیاست‌هایش که قرابت زیادی با استراتژی مایکروساف دارد، همچنان پابرجا خواهد بود. جف به عنوان مدیرعامل لینکداین به فعالیت ادامه داده و گزارش خود را به من و اعضای هیئت مدیره ارائه خواهد کرد، حال آنکه خود عضوی از هیئت مدیره خواهد بود. ماز از جف خواسته‌ایم تا لینکداین را برای رسیدن به اهداف بلندمدت، براساس نظرات خویش اداره کند. لینکداین در کنار دنبال کردن سیاست‌های یپشرفت خود، با مایکروسافت نیز در زمینه‌ی ادغام سرویس‌ها همکاری خواهد کرد.

وی در پایان با اشاره به برگزاری نمایشگاه E3، همه را به دنبال کردن اخبار کنفرانس مایکروسافت در این گردهمایی بزرگ دعوت کرده است.

نظر شما در مورد تصاحب لینکداین توسط مایکروسافت چیست؟

نخستین گردهمایی مدیران ارشد IT با رویکرد بهینه‌سازی راهکار مجازی سازی

نخستین گردهمایی مدیران ارشد IT با رویکرد بهینه‌سازی راهکار مجازی سازی به همت شرکت فنی مهندسی دانش بنیان رها برگزار شد.387df431-6036-417f-b68d-c37b45b41405

در این مراسم موضوعاتی از جمله مشکلات استفاده از رایانه های رومیزی، بررسی روند فناوری مجازی سازی برای رفع معضلات، ارائه جدیدترین متد مجازی‌سازی با بهره‌گیری از استانداردهای جدید و مقایسه این با انواع راهکارهای موجود مطرح شد و اطلاعات کاملی درباره این موضوعات توسط مجید خاکی مدیرعامل شرکت رها در اختیار کاربران قرار گرفت.

گردهمایی بهینه‌سازی راهکار مجازی سازی1837a622-5c4a-464c-a5bd-5e46e92cd90a

همچنین لیو رولین کارشناس ارشد فنی شرکت vcloudpoint اطلاعاتی در مورد زیرو کلاینت‌های این شرکت توضیح داد. این محصولات توسط شرکت فنی مهندسی دانش بنیان رها در ایران به فروش خواهد رسید.

رعنا منافی مدیر امور نمایندگان رها نیز در این مراسم نحوه فروش راهکارها و محصولات مجازی‌سازی که توسط شرکت فنی مهندسی دانش بنیان رها در ایران ارائه شده است، اطلاعاتی به مدیران شرکت‌ها و سازمان‌های دولتی و خصوصی ارائه داد.

گردهمایی بهینه‌سازی راهکار مجازی سازی682e5888-6f16-438f-bb05-721639174833

با راهکارها و محصولات مجازی‌سازی ارائه شده در این همایش،  شاهد کاهش هزینه‌های نصب و راه‌اندازی تا ۷۰ درصد، کاهش چشمگیر هزینه‌های پشتیبانی، کاهش بیش از ۹۰ درصدی مصرف انرژی، تجربه‌ی کاری همانند یک رایانه‌ی رومیزی، مدیریت و نظارت دقیق و کاربردی، افزایش بیش از دو برابری عمر مفید،پایداری فوق العاده، بالاترین نرخ سرعت تبادل اطلاعات بین کاربران و در نهایت صرفه‌جویی اقتصادی ۳۰۰ درصدی در یک بازه‌ی زمانی ۶ ساله در مقایسه با استفاده از رایانه رومیزی در شرکت‌ها و سازمان‌ها خواهیم بود.

در این مراسم مدیران ارشد فناوری اطلاعات وزارت کشور، وزارت آموزش و پرورش، سازمان نظام صنفی رایانه‌ای کشور و همچنین مدیران شرکت‌های خصوصی و دولتی دیگر حضور داشتند.

نحوه جلوگیری از اشتراک‌گذاری فایل‌ها

نحوه جلوگیری از اشتراک‌گذاری فایل‌ها در ویندوز

shutterstock_32769454_0

مایکروسافت اخیرا به آپدیت سیستم عامل خود بسیار بها می‌دهد. بین آپدیت اجباری به ویندوز ۱۰ و عصبانیت کاربران از نحوه به‌روزرسانی سیستم، ظاهرا ما باید بیشتر مشغول مبارزه با آپدیت سیستم عامل باشیم تا استفاده از دستگاه خود. یکی از روش‌هایی که مایکروسافت از آن برای ساده‌تر کردن عملیات آپدیت استفاده می‌کند، به اشتراک گذاری کانکشن ارتباطی کاربران با یکدیگر (ارتباط نقطه به نقطه – P2P) است. برای بسیاری از کاربران، این موضوع نمی‌تواند مشکلی ایجاد نماید اما برای برخی دیگر از افراد که از اینترنت‌های حجمی استفاده می‌کنند و پهنای باند برای آنها اهمیت دارد، این موضوع بسیار مهم است. خوشبختانه شما می‌توانید این سیستم به اشتراک گذاری فایل‌ها را متوقف کنید.

برای انجام این کار، مراحل زیر را طی کنید:

وارد Settings شده و سپس به قسمت Update & Security مراجعه کنید. حال باید وارد بخش Windows Update که از قسمت چپ قابل دسترسی است، شوید. در این مرحله روی گزینه Advanced Options کلیک کنید. در نهایت از قسمت Updates from more than one place (همانطور که در تصویر بالا مشاهده می‌کنید) می‌توانید آن را غیر فعال کنید. به این ترتیب، برای انجام عملیات به‌روزرسانی، دیگر نیازی به برقراری ارتباط با سایر کاربران نیست.

منبع: MAKEUSEOF

 

چگونه در چند ثانیه عملیات بروز رسانی اپلیکیشن ها را انجام دهیم.

فروش سرور HPE با شرایط ویژه و گارانتی طلائی نتکو

بروز رسانی اپلیکیشن ها:

اینکه اپلیکیشن‌ها به صورت مدام درخواست بروزرسانی می‌کنند یکی از حقایق دنیای رایانه‌ها است. این بروزرسانی‌ها را نباید نادیده گرفت چراکه بسیاری از آن‌ها وصله‌هایی امنیتی هستند و نیز باعث رفع مشکلات و باگ‌های نرم افزاری می‌شوند. همچنین بروزرسانی‌ها باعث اضافه شدن امکانات جدیدی به اپلیکیشن‌ها شده و آن‌ها را کاربردی‌تر می‌‌کنند. اکثر کاربران لینوکس روش بروزسانی دستی و معمول اپلیکیشن‌ها در این سیستم عامل را می‌دانند، اما شاید بخواهید با روشی سریع‌تر این کار را انجام دهید. شما می‌توانید با چند دستور ساده تمامی بخش‌های رایانه لینوکسی خود را بروزرسانی کنید. ابتدا ابزار خط فرمان را اجرا کرده و سپس دستورات زیر را عینا وارد کنید:

sudo apt-get install [package name here]

با اجرای دستور فوق، اپلیکیشن مورد نظر بررسی شده و در صورتی که آپدیتی برای آن‌ ارائه شده باشد، دانلود و نصب خواهد شد. دقت کنید که باید به جای package name here نام اپلیکیشن را وارد کنید. اگر شما نام بسته اپلیکیشن مورد نظرتان را نمی‌دانید، می‌توانید دستو زیر را اجرا کنید تا لیست نام پکیج تمامی اپلیکیشن‌های موجود در سیستم برایتان نمایان شود. | less به شما اجازه می‌دهد تا با کلید‌های جهتی صفحه کلید عمل اسکرول را انجام دهید.

apt-cache pkgnames | less

چند دستور دیگر هم وجود دارند که می‌توان از آن‌ها برای بهبود فرآیند آپدیت استفاده کرد. اگر می‌خواهید بروزرسانی تمامی اپلیکیشن‌ها را با هم انجام دهید ابتدا دستور زیر را اجرا کنید. این کار باعث می‌شود جدیدترین اطلاعات در مورد نرم‌افزارهای نصب شده در رایانه شما نمایان شود.

sudo apt-get update

پس از اجرای دستور بالا، دستور زیر را را وارد کنید تا همه نرم‌افزارهای نصب شده به جدیدترین نسخه آن‌ها بروزرسانی شوند. سیستم شما در این شرایط لیست تمامی مواردی که نیاز به بروزرسانی دارند را به شما نشان می‌دهد و از شما درخواست می‌کند فرآیند را تایید کنید. برای تایید این پروسه باید حرف Y را تایپ کنید.

sudo apt-get upgrade

به همین راحتی شما توانستید از طریق ابزار خط فرمان لینوکس، تمامی اپلیکیشن‌های خود را بروزرسانی کنید.

منبع : ومیت

نسل جدید سرورهای اچ‌پی مخصوص سازمان‌های کوچک و متوسط

بازوی ارائه خدمات سازمانی اچ‌پی موسوم به Hewlett Packard Enterprise که البته با نام HPE هم شناخته می‌شود، در نظر دارد محصولات خود مخصوص سازمان‌های کوچک و متوسط (SMB) را توسعه دهد و بر این اساس دو سرور جدید با قیمت کمتر از ۷۰۰ دلار را برای این کسب و کارها معرفی کرده است.

به گزارش  سی‌آر‌اِن، نخستین محصول ویژه اچ‌پی برای سازمان‌های کوچک و متوسط یک سرور رَک است که با نام ProLiant DL20 Gen 9 شناخته می‌شود و ضمن داشتن انواع قابلیت‌های کاربردی، با قیمت ۶۶۰ دلار فروخته می شود.

سرور دیگر که برای این دسته از سازمان‌ها ارائه شده است ProLiant ML30 Gen9 نام دارد که با قیمت ۵۹۹ دلار برای ترابری داده در فضای درون‌سازمانی مورد استفاده قرار می‌گیرد.

هر دو محصول یاد شده از پردازنده‌های Core i3 اینتل، Pentium و Xeon پشتیبانی می‌کنند و شرکت اچ‌پی توضیح داد فروش آنها از تاریخ اول دسامبر یعنی همین هفته آغاز می‌شود.

 HP Server (1)

«جک مارگوسیان» مدیر مرکز راهکارهای راهکارهای سازمانی HPE در این خصوص توضیح داد تمرکز روی سازمان‌های کوچک و متوسط می‌تواند بهترین گام برای ورود اچ‌پی به بازار جهانی خدمات سازمانی باشد و این شرکت را در عرصه سخت‌افزارهای سازمانی موفق کند.

او گفت: «فرصت اصلی برای ما این است که رقبای اچ‌پی هرگز در این زمینه محصولات بهتری ارایه نکرده‌اند. شرکت HPE با همکاری شرکای خود می‌توانید بهترین خدمات سخت‌افزاری و نرم‌افزاری سازمانی را ارائه دهد و این خدمات در پایین‌ترین هزینه در اختیار کسب و کارها قرار بگیرند.»

تفاوت سرورهای HP با پارت نامبر مشخص و پارت نامبر نامشخص (CTO)

HP محصولات خود را به دو شیوه PN و CTO به بازار عرضه می کند. PN (Part Number) سرور شناسه ای است برای معرفی سرور و اجزای آن شامل تاریخ تولید بهمراه مشخصات فنی و سریال تمامی قطعات که به شکل یکپارچه در کارخانه اسمبل، تست کنترل کیفی، سپس عملکرد و راهی بازار می گردد که هدف از طبقه بندی به شیوه پارت نامبر ساده کردن سفارش و آسان سازی در پیگیری و استفاده از خدمات گارانتی آن محصول خریداری شده می باشد.
اما در شیوه عرضه CTO (Configure to order) محصولات به شکل یکپارچه نشده و Base روانه بازار می گردد تا بسته به نیاز و سلیقه مشتری عمل کانفیگ توسط خود خریدار روی آنها انجام گیرد که این شکل عرضه محصولات، نگرانی و مشکلات خاص خود را به همراه دارد.
که برخی از این مشکلات عبارتند از :
۱- مونتاژ توسط نیروی انسانی استاندارد نبوده و معایبی را از قبیل انتقال الکتریسیته ساکن از بدن فرد مونتاژکننده به قطعات داخل سرور را در پی خواهد داشت.
۲- نصب ناصحیح درپوشها موجب عدم گردش هوای مازاد در داخل سرور شده و در نتیجه بالا رفتن دمای سرور را به همراه خواهد داشت.
۳- در این شیوه عرضه یعنی سرورهای غیر پارت نامبر احتمال استفاده از قطعات غیر اورجینال (OEM) و نو شامل RAM Heat Sink , CPU , Power , FAN وجود دارد.
۴- در هنگام بروز اشکال فنی زمانیکه به سایت HP مراجعه می نمائید قبل از هر گونه پاسخی به سئوال: از شما پارت نامبر و شماره سریال دستگاه پرسیده می شود البته باید اذعان داشت که سرورهای CTO به دلیل عدم برخورداری از کنترل کیفیت HP عموماً قیمت پائین تری هم نسبت به سرورهای اورجینال با پارت نامبر استاندارد دارند. در کل می توان چنین استنباط کرد که در شیوه ارائه پارت نامبر حاشیه امنیتی مشتری برای خرید بسیار بالاست چرا که کارخانه سازنده با رعایت اصول بهینه سازی و استانداردهای موجود بهترین شیوه تولیدی را اتخاذ کرده است. لازم بذکر است که جهت کنترل نمودن وضعیت سرور خود کافی است با وارد کردن پارت نامبر و سریال سرور در سایت زیر (Hp Warranty look up) از اصالت آن آگاه شوید.

مزایای سرور در مقایسه با کامپیوترهای مونتاژی

کسب و کارهای کوچک، نوپا و زود بازده (که عموماً کمتر از ۲۰ تا ۳۰ پرسنل دارند)، بیشترین سهم از تعداد سازمانها و موسسات کشور را تشکیل می دهند و قطعاً یکی از دغدغه های مشترک همه آنها ایجاد بستر شبکه و کامپیوتر، قابل اطمینان و همگام با تغییرات فناوری است تا با استفاده مطلوب از فناوری اطلاعات به رشد و توسعه کسب و کار خود کمک کنند. زیر ساخت اصلی برای بکارگیری فناوری اطلاعات به صورت استاندارد در هر کسب و کار، ایجاد شبکه کامپیوتری و در راس آن تهیه دستگاه سرور است. اما سوال اساسی برای این دسته از مخاطبان یافتن سرور مناسب و اطلاع از هزینه های تهیه آن است.

سرورهای مبتدی بهترین گزینه برای تامین نیازهای این گروه از مخاطبان هستند. این سرورها از نظر ساختار شباهت بسیار زیادی به یک کامپیوتر شخصی سطح متوسط دارند اما تفاوتهای کلیدی نیز در میان آنها وجود دارد. کامپیوترهای شخصی برای استفاده یک کاربر به منظور اجرای نرم افزارهایی مثل Word و Excel، کنترل پست الکترونیک و نمایش صفحات وب و … از طریق یک سیستم عامل معمولی طراحی شده اند اما یک سرور با استفاده از یک سیستم عامل مخصوص برای پشتیبانی از تعداد زیادی کاربر و اجرای نرم افزارهای چندین کاربره نظیر؛ سیستم ایمیل سازمانی، نرم افزار پیام رسان داخلی، پرینت سرور، تقویم مشترک، نرم افزارهای مبتنی بر پایگاه داده، نرم افزار اتوماسیون اداری، نرم افزار برنامه ریزی منابع سازمانی، نرم افزار مالی و حسابداری و نرم افزار CRM و در نهایت به اشتراک گذاری کلیه اسناد، تصاویر و فایلهای مهم دیگر طراحی شده است.

با این حال وقتی پای هزینه به میان می آید شرایط به طور کلی تغییر می کند. کلمه سرور اغلب تداعی کننده هزینه های بالا برای اغلب صاحبین این کسب و کارهاست. این تصور که همه سرورها قیمتهای گزافی دارند بسیاری از این افراد را به سوی استفاده از کالای جایگزین یعنی خرید و مونتاژ کامپیوتر شخصی به جای سرور هدایت می کند اما در حقیقت شرکتهای تولید کننده سرور برای این بخش از مشتریان، محصولاتی با قیمتهای بسیار مناسب طراحی و تولید کرده اند. به طور مثال سرورهای اچ پی از سری ML10، ML30، ML310e، DL320e، DL20 با قیمتهای بسیار مناسب و در حد یک لپ تاپ یا یک کامپیوتر مونتاژ داخلی عرضه می شوند.

برای درک بهتر موضوع، به مقایسه قیمت یک سرور اچ پی با هزینه خرید و مونتاژ یک کامپیوتر شخصی پرداختیم.

as

همانطور که ملاحظه نمودید، می توان با هزینه ای حتی کمتر از یک کامپیوتر مونتاژی، یک سرور اچ پی با امکاناتی بسیار بیشتر و مطمئن تر تهیه نمود که به برخی از آنها در ادامه اشاره می کنیم:

  طراحی مخصوص کار مداوم:

بر خلاف کامپیوتر های شخصی؛ سرورها به گونه ای طراحی شده اند تا برای مدت زمانهای طولانی بدون وقفه کار کنند (مثلاً یک سال مداوم بدون خاموشی) به همین دلیل قطعات استفاده شده در آنها نیز با کیفیت تر و مقاوم تر هستند. همچنین سیستم خنک کننده مناسبتری نیز برای آنها تدارک دیده شده است در نتیجه عموماً این محصولات با مشکل حرارت زیاد (البته شرایط محیطی استاندارد) مواجه نیستند. در نتیجه احتمال از کار افتادن آنها و ایجاد وقفه در روند کسب و کار شما کمتر است.

  سازگاری قطعات داخلی با یکدیگر:

یکی از نقاط قوت سرورها نسبت به کامپیوترهای مونتاژی، هماهنگی و سازگاری قطعات داخل آنها با یکدیگر است. سازندگان سرور برای هر قطعه تستهای کنترل کیفی سختگیرانه ای متناسب با وظایفی که سرور برای آن طراحی شده است در نظر می گیرند و از سازگاری تمامی قطعات با یکدیگر اطمینان می یابند. اما این شرایط در خصوص قطعات مختلف از سازنده های مختلف، که در یک کیس مونتاژ می شوند وجود ندارد. گاهی ممکن است یک مادربورد و کارت گرافیک حتی از یک سازنده مشترک نیز با یکدیگر سازگار نباشند.

پردازنده های مخصوص:

پردازنده های سرور (عموماً سری زئون) با مدلهای مخصوص کامپیوترهای معمولی متفاوت هستند. این پردازنده‌ها عموماً نسبت به پردازنده دسکتاپ هم رده، از حافظه کش بالاتری برخوردارند که این ویژگی باعث افزایش سرعت پردازش و عملکرد پردازنده می شود.

رمهای مخصوص:

سرورها دارای رمهای بسیار سریعی هستند که اثرگذاری بالایی در کارآیی سرور دارند. تا زمانی که سرورها به طور همزمان در حال اجرای وظایف مختلفی هستند، رم سریع و system bus سریع، عاملی حیاتی در حفظ عملکرد بدون تاخیر سیستم هستند. رمهای “ECC” یا “Error Correcting” به معنای “تصحیح خطا” مخصوص سرورها هستند. این قابلیت به محافظت از ذخیره سازی صحیح اطلاعات در رم حین پردازش کمک می کند. با اینکه قیمت این رمها کمی بیشتر از رمهای معمولی است اما در سیستمهای سرور یک نیاز اصلی هستند.

کارت شبکه قدرتمند:

وظیفه اتصال سرورها به شبکه توسط یک یا چند درگاه رابط انجام می شود. این درگاهها با کارت شبکه های موجود در کامپیوترهای شخصی عملکرد متفاوتی دارند. آنها وظیفه انتقال سریعتر اطلاعات به شبکه به منظور آزاد سازی سی پی یو برای انجام پردازش بیشتر داده ها را بر عهده دارند. نتیجه نهایی این است که آنها می توانند تحت بار کاری زیاد، اطلاعات بیشتری را نسبت به کارت شبکه های معمولی انتقال دهند که به معنای دارا بودن سرعت بیشتر و عملکرد بهتر در شبکه خواهد بود. در مدلهای جدید سرورها حداقل دو رابط یک گیگابیت در ثانیه تعبیه شده است که امکان پیوند مجازی آنها به منظور دستیابی به پهنای باند بیشتر نیز وجود دارد در حالیکه مادربوردهای معمولی دارای یک درگاه شبکه هستند که آن هم برای نقل و انتقال محدود اطلاعات طراحی شده نه پشتیبانی از عملیات چندین کاربر.

قابلیت اتصال گرم:

یکی از مزایای خاص سرورها، امکان نصب یا جداسازی قطعاتی مثل هارد یا منبع تغذیه هنگام روشن بودن سرور می باشد. این قابلیت کمک می کند تا بدون ایجاد وقفه در عملکرد شبکه امکان انجام تغییرات مورد نظر در سرور میسر گردد. (البته در این خصوص باید توجه داشت که ممکن است این قابلیت در برخی مدلهای سرورها به طور پیش فرض در نظر گرفته نشده باشد.)

قابلیت رید Raid:

یکی از اصلی ترین تفاوتهای سخت افزاری بین سرورها و کامپیوتر های شخصی ساختار هاردهاست. برخلاف کامپیوتر های شخصی سرورها دارای چندین هارد هستند اما این هاردها به گونه ای تنظیم می شوند که به عنوان یک هارد دیده شوند. به این حالت اختصارا “Raid” یا “Redundant Array of Inexpensive Disks” گفته می شود. این قابلیت برای محافظت از سرورها در برابر خرابی یکی از هاردها که اطلاعات مهم کسب و کار شما را در معرض خطر قرار می دهد، استفاده می شود. اگر یک هارد در آرایش یک Raid از کار بیفتد، به معنی از بین رفتن اطلاعات داخل آن هارد نیست زیرا دیگر هاردهای موجود در آن Raid کماکان حاوی اطلاعات خواهند بود. سطوح مختلفی از Raid وجود دارد اما عموماً برای سرورهای مبتدی استفاده از رید های یک و پنج رایج تر است.

قابلیت مدیریت داخلی:

سرورها عموما از یک موتور کنترل داخلی برای اخطار به مدیر شبکه در شرایط بروز اشکال و برقراری دسترسی از راه دور به سرور بهره می برند. این موتور در سرورهای اچ پی “ILO HPE” یا “Integrated light out HPE” نام دارد. موتور ILO مجموعه ای کامل از قابلیتهای مدیریتی تعبیه شده در سرور می باشد که کلیه مراحل چرخه عمر سرور را پشتیبانی می کند؛ از نصب و استقرار اولیه و مدیریت مستمر، تا سیستم هشدار و دسترسی از راه دور. این سیستم در کلیه سرورهای نسل هشتم به بعد سرورهای HPE به صورت پیش فرض تعبیه شده است. برخی از امکانات این سیستم به شرح زیر است:

 

امکان مانیتورینگ سلامت داخلی دستگاه و قابلیت هشدار هنگام بروز خطا بدون نیاز به وجود سیستم عامل؛ کافیست یک کابل برق به دستگاه و یک کابل شبکه به درگاه ILO دستگاه متصل باشد تا بتوان از راه دور به دستگاه دسترسی داشت، آنرا خاموش و روشن کرد و حتی سیستم عامل آنرا نصب یا تعویض نمود.

به منظور افزایش پایداری سیستم و کاهش زمان وقفه در کار آن، سیستم کنترل سلامت دستگاه همواره فعال بوده و به طور مداوم بر سیستم نظارت کرده و هشدارهای لازم در خصوص سلامت دستگاه را اعلام می کند، تمامی تنظیمات و تغییرات دستگاه را ثبت و درتاریخچه دستگاه نگهداری می کند و این امکان را به کاربر می دهد تا از آن خروجی گرفته و در اختیار شرکت پشتیبانی دهنده قرار دهد.

امکان تنظیم و آماده به کار نمودن یک سرور بدون نیاز به هیچ سی دی و رسانه مجزای دیگر. (یعنی به سی دی Smart Start و بروز رسانی فریم ویر احتیاجی نخواهد بود.)

قابلیت دسترسی، توسعه و مدیریت سرور از طریق موبایل و تلفن هوشمند در هر زمان و مکان

  نتیجه گیری:

 همانطور که قبلاً اشاره شد، خبر خوب اینست که امروزه قیمت سرورهای مبتدی با اینکه امکانات بسیار بیشتری را در اختیار کاربر قرار می دهند با کامپیوترهای مونتاژی سطح متوسط برابری می کند و می تواند یک بستر استاندارد و قابل اطمینان برای کسب و کار صاحب خود پدید آورد. لذا با یک نگاه منطقی، سرورهای سطح مبتدی اچ پی به طور حتم انتخاب اصلی دارندگان کسب و کارهای کوچک و یا شعبات و فروشگاه های یک شرکت بزرگ خواهد بود.

اینتل پردازنده ۲۲ هسته ای Xeon E5 V4 را عرضه می‌کند

اگر فکر می‌کنید کامپیوتر شخصی شما با پردازنده هشت هسته‌ای آخر قدرت پردازشی است، جالب است بدانید اینتل قصد دارد پا را فراتر بگذارد و Xeon E5-2600 V4 را با ۲۲ هسته برادول و پشتیبانی از فناوری Hyper-Threading عرضه کند.

 
ادامه مطلب ...