فروش سرور hp فروش سرور فروش سرور اچ پی

فروش سرور hp فروش سرور فروش سرور اچ پی

فروش سرور hp فروش سرور فروش سرور اچ پی
فروش سرور hp فروش سرور فروش سرور اچ پی

فروش سرور hp فروش سرور فروش سرور اچ پی

فروش سرور hp فروش سرور فروش سرور اچ پی

نیم نگاهی به سرور HP DL380 GEN9

نیم نگاهی به سرور HP DL380 GEN9

 
نتکو HP-DL380-GEN9

HP-DL380-GEN9

نیم نگاهی به سرور HP DL380 GEN9

سرور DL380 پرفروش ترین سرور در جهان است که در آینده نیز بهتر از این خواهد شد.سرور HP DL380 GEN9 آخرین عملکرد و توسعه پذیری را در یک سرور با ۲ cpu و اشغال  ۲ یونیت به شما ارائه می دهد. قابلیت اطمینان بالا ، سرویس دهی بالا ، توانایی مداوم ، با حمایت از یک گارانتی جامع ، این سرور را برای هر محیطی ایده آل می کند و یک دیتا سنتر استاندارد را گسترش می دهد.

این سرور برای کاهش هزینه ها و همچنین پایین آوردن پیچیدگی ها از cpu های Intel v3 که ۷۰درصد کارایی پردازش را افزوده است و بوسیله تکنولوژی رم های اچ پی DDR4 ماکزیمم ۴/۱ ترابایت رم با ۱۴درصد کارایی بالاتر ارائه می دهد. علاوه بر این پورت SAS در این سرور پهنای باند ۱۲گیگ دارد همچنین ۴۰ گیگ NIC دارد تا طیف گسترده ای از گزینه های گرافیکی و محاسباتی را پوشش دهد.

نتکو HP-DL380-GEN9

سرور DL380 G9 در هر مجموعه ی کامپیوتری به صورت اتوماتیک ضروری ترین وظایف مدیریت چرخه عمر سرور را انجام می دهد که شامل : استقرار، بروز رسانی، نظارت، و حفظ با سهولت می باشد. این سرور با اعتماد می تواند همه چیز از جمله بیشتر برنامه های پایه تا ماموریت های حیاتی را اجرا کند. طراحی انعطاف پذیر این سرور باعث می شود سرمایه گذاری شما اثباتی برای آینده شما باشد تا بتوانید نیازهای کسب و کار خود را بوسیله آن گسترش دهید. سرور HP DL380 G9 یک شاسی قابل انعطاف می باشد که توانایی نصب ۸ الی ۲۴ عدد هارد SFF را دارد . همچنین از ۴ الی ۱۲ عدد هارد LFF می توان به راحتی بر روی آن نصب کرد. کمپانی HP یک قابلیت فوق العاده برای این سرور درنظر گرفته که آن نصب دوعدد هارد SFF درپشت این سرور می باشد.

طراحی مجدد آرایه ها در این سرور بسیار انعطاف پذیر می باشد. کنترلر HBA SAS جدید برروی این سرور به شما پهنای باند ۱۲Gb/s را می دهد. همچنین چیپ ست کنترلر B140i برروی مادربورد قابلیت SATA Raid را برای شما فراهم می کند. انتخاب یک کارت شبکه با ۴ پورت ۱Gb/s و کارت های جدید که تا ۴۰Gb/s پهنای باند در محیط شبکه را برای شما فراهم می نماید ، از جمله خصوصیات جدید این سرور می باشد.

System features

Intel® Xeon® E5-2600 v3 product family

Processor family

۱ or 2

Number of processors

۱۸ or 16 or 14 or 12 or 10 or 8 or 6 or 4

Processor core available

۲U

Form factor (fully configured)

(۲) Flex Slot

Power supply type

 (۶) Maximum – For detail descriptions reference the QuickSpec

Expansion slots

Memory, maximum1.5TB

Memory

۲۴ DIMM slots

Memory slots

DDR4 SmartMemory

Memory type

Storage

 ((۴) or (12)) LFF SAS/SATA/SSD((8) or (16) or (24)) SFF SAS/SATA/SSD(۲) SFF Rear drive optional or

(۳) LFF Rear drive optional

Hot plug, depending on model

Drive description

Controller Cards

۱Gb 331i Ethernet Adapter 4 Ports per controller and/or

Network controller

Depending on model

Optional FlexibleLOM

 (۱) Dynamic Smart Array B140i and/or

(۱) Smart Array P440

(۱) Smart Array P840

Depending on model

بررسی ۱۰ نکته مفید مجازی سازی

بررسی ۱۰ نکته مفید مجازی سازی

بررسی ۱۰ نکته مفید مجازی سازیReviewed by مدیر سایت on Dec 16Rating:
نتکو Virtualization

Virtualization

بررسی ۱۰ نکته مفید مجازی سازی

مجازی سازی می‌تواند موجب کاهش هزینه‌ها، تسهیل امور مدیریتی، و توانمند ساختن یک سازمان در بهره وری هر چه بیشتر از سرمایه‌های فنی خود شود. نکاتی که در ادامه می‌خوانید به شما کمک می‌کند تا از این منافع بهره مند شوید.

مجازی سازی برای تمامی شرکت‌ها در هر اندازه‌ای که باشند به یک ضرورت تبدیل شده است. از شرکت های بسیار کوچک تا شرکت های بزرگ خدمات تولید, مجازی سازی کمک می‌کند تا از سخت‌افزارهای خود بهره وری بیشتری کنند و این سخت افزارها برای شرکت ‌های خود نسبت به سابق کار بیشتری انجام دهند. این فناوری برای بسیاری از شرکت‌ها کاملاً جدید، اما برای بقیه کهنه و قدیمی شده است. صرف نظر از این که شما در چه موقعیتی هستید، مجازی سازی یک فناوری گسترده با اجزای متحرک فراوان است. داشتن دانش انجام کاری به بهترین وجه که متناسب با نیازهایتان باشد باید هدف اصلی شما و تیم IT شرکتتان باشد. با در نظر گرفتن این ایده، در ادامه به بررسی ۱۰ نکته راجع به مجازی سازی می‌پردازیم که نباید توسط مدیران شبکه نادیده گرفته شوند. البته منظور ما آن دسته از مدیران شبکه است که تازه این فناوری را مد نظر قرار داده‌اند (یا قبلاً راجع به آن بررسی دقیقی کرده‌اند).

۱: سخت افزار را برای ظرفیت مجازی برنامه ریزی کنید

هنگامی که در مراحل اولیه برنامه ریزی محیط مجازی خود هستید، اشتباهاً سخت افزاری را خریداری نکنید که توان مدیریت باری که مجازی سازی روی آن قرار می دهد را ندارد. در این زمینه شما نیاز به تعمق بیش از حد معمول دارید. به یاد داشته باشید که سرور شما ممکن است میزبانی ماشین‌های مجازی متعددی را بر عهده گیرد، بنابراین باید قدرت اولیه و همچنین فضای لازم برای رشد را داشته باشد. در نهایت شما به سرور میزبانی نیاز دارید که مختص ماشین‌های مجازی باشد. ظرفیت را دو برابر اندازه گیری کنید، با اعمال هر ماشین مجازی یک ظرفیت کم کنید. تصور نکنید که یک ماشین مجازی فضای کمی را بر روی سرور اشغال می‌کند. و همچنین فرض را بر این نگذارید که سرور  شما تنها میزبان یک ماشین مجازی است.

۲: طول عمر هر ماشین مجازی را پیگیری کنید

من از برخی مدیران شبکه شنیده‌ام که یک ماشین مجازی را رها کرده و با کمترین و حتی بدون نظارت گذاشته‌اند که کار خود را بکند. شما باید تمامی ماشین‌های مجازی خود را از ابتدا تا به انتها پیگیری کنید. همچنین همیشه باید راجع به این که ماشین‌های مجازی تا چه اندازه گسترش یافته ‌اند، وضعیت کنونی آنها چیست، چه مقدار ترافیک را به خود اختصاص داده‌اند، و هر نوع اطلاعات دیگری که به دست می‌آورید، مطلع باشید. موضوع بسیار وسوسه انگیز این است که بگویند: ماشین‌های مجازی را “تنظیم کن و فراموش کن”، اما این یک اشتباه فاحش است و می‌تواند شما را در دنیایی از مشکلات فرو ببرد. نرم افزار مانیتورینگ میزان استفاده از پهنای باند توسط هر یک از ماشین های مجازی را به شما نمایش می دهد و شما به آسانی ماشین هایی که بیشترین ترافیک شبکه را دارند شناسایی و مدیریت خواهید کرد.

۳: هر چیزی را مجازی سازی نکنید

هر چیزی را نباید مجازی سازی کرد. منظور سرور FTP است که تنها ترافیک داخلی چندین کاربر را دریافت می‌کند؟ احتمالاً خیر. پرینت سرور؟ نه احتمالاً. شما نیاز به ایجاد یک برنامه مشخص و دلایل قاطع برای هر چیزی که مجازی سازی می‌شود، دارید. اولین چیزی که باید از خودتان بپرسید این است که “چرا لازم است سرور X را مجازی سازی کنیم؟ وقتی توانستید به این پرسش با اندکی اطمینان پاسخ دهید، همین استدلال را برای هر سروری که فکر می‌کنید از مجازی سازی سود می‌برد، به کار ببرید.

۴: ترافیک مجازی را همچون ترافیک غیر مجازی نظارت کنید

مطمئن شوید که ترافیک مجازی را همچون ترافیک غیر مجازی خود نظارت می‌کنید. خیال خود را با این تفکر که میزبان‌های مجازی ایمن‌ترند صرفاً به این دلیل که به صورت آنی می‌توانید وضعیت آنها را با یک هشدار کنترل نمایید، راحت نکنید. این یک حس کاذب از ایمنی است و نباید به عنوان جایگزینی برای امنیت در نظر گرفته شود. اما نظارت فراتر از امنیت می‌رود. شما باید از ترافیک داخلی و خارجی ماشین‌های مجازی خود اطلاع داشته باشید. پس از یک دوره زمانی معین، شما می‌فهمید که آیا لازم است به ماشین‌های خاصی منابع بیشتری داده شود و این که آیا به سایر ماشین‌های مجازی می‌توان به صورت مستقل سرویس داد.

۵: منابع مجازی را به صورت رایگان نبخشید

من بارها دیده‌ام: ماشین‌های مجازی که به نظر می‌رسند فضای کمی اشغال می کنند به راحتی در یک حوزه به صورت “رایگان” در اختیارگذاشته می‌شوند. این کار را نکنید. حتی یک سرور را به صورت رایگان از حالت مستقل به حالت مجازی شده تغییر ندهید. مشتریان باید منافعی که از سرور مجازی شده عاید آنها می شود را درک کنند. مجازی سازی همراه با تمام مزایایی که با خود به ارمغان می‌آورد، هزینه ای دارد. علاوه بر این، فناوری مورد نیاز برای مجازی سازی دارای هزینه‌های مرتبط است، و گاهی اوقات این هزینه‌ها بالاست. سازمان شما نمی‌تواند به تنهایی از عهده این مخارج برآید.

۶: از ماشین های مجازی برای سیستم‌های یکبار مصرف استفاده کنید

این مساله ممکن است برای برخی افراد کمی عجیب به نظر برسد، اما مواقعی هست که شما موقتاً نیاز به یک سیستم و یا سرویس دارید. در چنین مواقعی هیچ راهی بهتر از ارائه یک سرویس موقت با ماشین‌های مجازی وجود ندارد. نیاز به یک سرور FTP موقت هست؟ ماشین مجازی کارساز است. نیاز به یک پرینت سرور یا وب سرور موقت هست؟ ماشین مجازی کفایت می کند. یک نکته خوب راجع به ماشین‌های مجازی این است که منابع سخت افزاری آنها برای شما هزینه بر نیست، بنابراین ایجاد چنین ماشینی بسیار آسان است. شما حتی می‌توانید ماشین‌های مجازی خاصی را برای “وظایف یکبار مصرف” ایجاد کرده و آنها را تنها در صورت نیاز فعال کنید.

۷: هنگامی که کارآیی مهم است، از دیسک‌های حجیم استفاده کنید

اکثر مدیران برای ماشین‌های مجازی خود دیسک‌هایی با حجم پویا ایجاد می‌کنند. برای آن دسته از ماشین‌های مجازی که نیاز به کارآیی بیشتری دارند، باید دیسک های حجیمی  اختصاص دهید. به عبارت دیگر، یک اندازه واقعی برای دیسک در پیکربندی ماشین مجازی تنظیم کنید. بله، باید برنامه ریزی‌های لازم را بکنید تا ماشین میزبان فضای کافی برای سرویس دهی به  ماشین‌های مجازی را داشته باشد. اما کارآیی حاصل از این کار قطعاً ارزش وقتی که صرف کرده‌اید را خواهد داشت.

۸: تمام ابزارهای توسعه ماشین مهمان (guest)و مجازی سازی را نصب کنید

این امر اجتناب ناپذیر است. اکثر ابزارهای ماشین مجازی (مانند VMware و VirtualBox) ابزارهای توسعه ماشین مهمان و دیگر ابزارهای مجازی سازی را ارائه می‌دهند که برای بهبود تجربه و عملکرد و همچنین ارتباط یکپارچه مهمان و میزبان ایجاد شده‌اند. بسیاری از مدیران از نصب این ابزارها با فرض اینکه غیر ضروری هستند، غفلت می‌کنند. اما شما آنها را نصب کنید. ابزار‌های یکپارچه سازی ماوس، درایورهای صفحه نمایش، یکسان سازی زمان مهمان- به- میزبان ، و ابزار‌های دیگر می‌توانند برای کمک به کارآمدتر ساختن یک ماشین مجازی نصب شوند. اگرچه ممکن است لازم نباشند، اما برای بهبود قابلیت استفاده نهایی مفیدند.

۹: سیستم میزبان خود را در تمام اوقات کاملاً به روز نگه دارید

اکثر افراد تصور می‌کنند تمام فشار روی سیستم عامل ماشین مهمان است. هر چند این امر برای ماشین مجازی درست است، میزبان نیز نقش مهمی در این فرآیند ایفا می‌کند. آخرین چیزی که شما نیاز دارید این است که ماشین‌های مجازی خود را بر روی یک دستگاه آسیب پذیر ایجاد کنید. اگر این سرور میزبان ماشین‌های مجازی متعددی نیست، مطمئناً تنها چیزی که در معرض خطر است داده‌های ارزشمند سرور است. اما از آنجا که سرور میزبان تعدادی ماشین مجازی است (که برخی از آنها می‌تواند متعلق به مشتریان باشد)، تهدید از دست دادن داده‌ها به طور قابل توجهی افزایش می‌یابد. به همین دلیل، شما باید مطمئن شوید که ماشین میزبان به روز و همیشه ایمن است.

۱۰- از یک راه کار جامع برای مانیتورینگ زیر ساخت های مجازی سازی استفاده کنید

نظارت بی وقفه و جامع زیر ساخت های مجازی سازی از اهمیت بسیار بالایی برخوردار است، به خصوص در مواقعی که تعداد سرورهای مجازی شما زیاد باشد امکان کنترل سلامت و بررسی وضعیت هر یک از سیستم ها به صورت موردی و دستی امکان پذیر نیست، لذا شما نیاز به راه کاری تخصصی برای مانیتورینگ ۲۴ ساعته سرورهای مجازی دارید که در صورت بروز هر گونه اشکال شما را بلادرنگ از موضوع با خبر سازد، سیستم جامع مانیتورینگ شبکه و دیتا سنتر همه آنچه شما برای این امر نیاز دارید در اختیارتان قرار خواهد داد.

نتیجه

زمانی ممکن است شرکت شما قصد سرمایه گذاری در فناوری‌های مجازی را داشته باشد. در آن زمان، شما باید تا حد امکان آمادگی داشته باشید. توجه کنید که با سعی و کوشش و پشتکار کافی، ماشین های مجازی در پول، زمان و تلاش شما صرفه جویی می‌کنند – که در نهایت باعث رضایت مشتریانتان می‌شود.

مقایسه HYPER-V 2012 R2 با VSPHERE 5.5

مقایسه HYPER-V 2012 R2 با VSPHERE 5.5

چندی پیش مایکروسافت و VMware از نسخه های جدید محصول مجازی خود رونمایی کردند و اکنون امکان مقایسه بین این دو محصول با نام های  Hyper-V 2012 R2 و vSphere 5.5 فراهم شده است.

vSphere 5.5 چندین اصلاح از نظر مقیاس پذیری (scalability) انجام داده است، از طرفی Microsoft Hyper-V 2012 به امکانات و ویژگی های موجود در نسخه های قبلی بهبود بخشیده است. در حال حاضر امکانات قدیمی Vmware مورد توجه مایکروسافت قرار گرفته و در نسخه جدیدHyper-V  لحاظ شده است. مانند cloning  و  disk resize (با امکان کاهش اندازه)

ما باید از چندین جهت عمل مقایسه را بین این دو مجازی سازی انجام دهیم و اعدادی که در جدول زیر نوشته شده است برای مقایسه این دو کافی نیست. ضمن اینکه حداقل حافظه برای هر دو متفاوت است مدیریت حافظه نیز برای هر دو فرق دارد. Vmware از تکنولوزی مختلف و Hyper-V فقط از حافظه داینامیک استفاده می کند. سخت افزار مورد نیاز برای هر دو تقریباً مشابه ولی فضایی که برای Hypervisor  نیاز است، متفاوت می باشد (Esxi  می تواند بر روی ۱ گیگا SD card یا  USB نصب شود.)

Scaling

سیستم منابع Hyper-V 2012 R2 Vs phere 5.5 Essential plus Vsphere 5.5 Enterprise plus Vsphere 5.5 Enterprise Plus
Host پردازنده منطقیLogical Processors ۳۲۰ ۳۲۰ ۳۲۰ ۳۲۰
Host حافظه فیزیکیPhysical Memory ۴TB ۴TB ۴TB ۴TB
Host پردازنده مجازی برای هر هاست  ۲۰۴۸ ۴۰۹۶ ۴۰۹۶ ۴۰۹۶
VM پردازنده مجازی برای هر ماشین مجازی ۶۴ ۸ ۸ ۶۴
VM حافظه برای ماشین مجازی ۱TB ۳۲GB ۱TB ۱TB
VM حداکثر دیسک مجازی ۶۴TB ۶۴TB- 1% ۶۴TB- 1% ۶۴TB- 1%
VM ماشین مجازی فعال ۱۰۲۴ ۵۱۲ ۵۱۲ ۵۱۲
Cluster بیشترین نود ۶۴ ۳۲ ۳۲
Cluster بیشترین ماشین مجازی ۸۰۰۰ ۴۰۰۰ ۴۰۰۰

حافظه پویا (Dynamic Memory) ابزار مجازی سازی Hyper-V است که این امکان را می دهد که از حافظه جانبی (RAM) استفاده کاراتری داشته باشید. با استفاده از حافظه پویا ، Hyper-V به حافظه جانبی به شکل یک منبع مشترک نگاه می کند که می تواند به صورت خودکار و در حالی که ماشین مجازی در حال اجراست دوباره تخصیص یابد.

توجه داشته باشید که ما می توانیم مقدار استاتیک از حافظه را به ماشین های مجازی اختصاص دهیم. کاربرد حافظه پویا لزوماً ضروری نیست ولی استفاده از آن کاراتر است. ضمن اینکه ترکیبی از حافظه استاتیک و پویا را می توانیم مورد استفاده قرار دهیم.

حافظه پویا مقدار حافظه موجود در ماشین مجازی را بسته به مقدار درخواست توسط ماشین مجازی و مقداری که مشخص کرده اید، تنظیم می کند. حافظه پویا در Hyper-V در windows server 2008 R2 SP1 موجود است ضمن اینکه می توان این امکان را برای سرویس دهی در رول Hyper-V در Windows server 2008 R2 یا برای Hyper-V server 2008 R2 نیز فعال کنید.

نتکو Setting-VM

Setting-VM

Startup RAM

دو نقش عمده در hyper-V ویندوز سرور ۲۰۱۲ ایفا می کند:

۱-اگر Dynamic Memory غیرفعال باشد، startup RAM به عنوان یک حافظه استاتیک عمل می کند.

۲-اگرDynamic Memory فعال باشد مقدار حافظه (RAM) مورد نیاز برای اجرای ماشین مجازی را نشان می دهد.

Minimum RAM (جدید)

حداقل حافظه جانبی مورد نیاز برای اختصاص به ماشین مجازی در هر زمانی را نشان می دهد. این عدد بایستی کمتر یا مساوی مقدار Startup RAM باشد. اگر ماشین مجازی به حافظه کمتری نیاز داشته و یا دیگر ماشین های مجازی به حافظه بیشتری نیاز داشته باشند Minimum RAM به Hyper-V این امکان را می دهد که مقدار حافظه اختصاص یافته به ماشین مجازی خاصی را کاهش دهد.

Maximum RAM

بیشترین مقدار حافظه که یک ماشین مجازی می تواند تقاضا کرده و مورد استفاده قرار دهد که حداکثر آن ۶۴G می باشد.

Memory Buffer

مقدار حافظه ایی که Hyper-V  قصد تخصیص به ماشین مجازی را دارد در قیاس با مقدار حافظه ایی که واقعاً توسط برنامه ها و اپلکیشین های در حال اجرا در ماشین مجازی مورد نیاز است.

Memory Weight

اولویت ماشین مجازی را برای اخذ حافظه پویا نشان میدهد.

در مقابل حافظه پویا، در VMware Vsphere ، Hot add این امکان را به ادمین می دهد تا میزان حافظه ماشین مجازی را بدن وقفه افزایش دهد.

Hot add را در طول پیکر بندی VMware می توان فعال کرد چون به صورت پیش فرض این گزینه فعال نیست و ماشین های مجازی بایستی خاموش شوند تا بتوان این گزینه را فعال کرد. ضمناً VMware، Hot add حافظه ، پردازنده ، NIC و … را نیز دارد.

کوالکام تراشه های اسنپدراگون را بهینه می‌کند

کوالکام تراشه های اسنپدراگون را بهینه می‌کند

کوالکام امروز اعلام کرد که پردازنده‌های سری اسنپدراگون خود را برای پشتیبانی از فناوری واقعیت افزوده‌ی پروژه‌ی تانگوی گوگل، بهینه سازی می‌کند. بزرگ‌ترین تولید کننده‌ی تراشه در جهان دو پردازنده‌ی اسنپدراگون ۶۵۲ و اسنپدراگون ۸۲۰ را دارای قابلیت پشتیبانی از این فناوری خوانده است. فناوری تانگو امکان مشاهده‌ی اطلاعات و داده‌های انیمیشنی را روی تصاویری از دنیای واقعی برای کاربران روی تبلت یا گوشی هوشمند امکان پذیر می‌کند. برای مثال با استفاده از تانگو می‌توان نحوه‌ی چینش یک صندل یا مبل را به هنگام خرید از فروشگاه در دکوراسیون منزل مشاهده کرد. با توجه به اینکه کوالکام نیز به صف کمپانی‌های حامی پروژه‌ی تانگو پیوسته، می‌توان انتظار داشت این فناوری به زودی بصورت همه‌گیر راهی بازار شود. کمپانی چینی لنوو نیز از جمله‌ی حامیان پروژه‌ی تانگو است.

براساس برآوردهای صورت گرفته انتظار می‌رود بازار واقعیت مجازی در سال ۲۰۲۰ ظرفیتی ۱۲۰ میلیارد دلاری داشته باشد.

کوالکام به این موضوع اشاره کرده که تراشه‌های سری ۶۰۰ و سری ۸۰۰ اسنپدراگون از فناوری تانگو پشتیبانی خواهند کرد. تمام سنسور‌ها و الگوریتم‌های مورد استفاده برای استفاده از فناوری تانگو توسط پردازنده‌ی اسنپدراگون میزبانی خواهد شد. این موضوع استفاده از پردازنده‌ی کمکی برای انجام پردازش‌های مورد نیاز تانگو را غیرضروری کرده و از این‌رو مصرف انرژی نیز کاهش می‌یابد. میزان انرژی مصرف شده برای پشتیبانی از پروژه‌ی تانگو کمتر از ۲ وات است که استفاده از آن در گوشی‌های هوشمند را توجیه پذیر می‌کند.

کوالکام تراشه های اسنپدراگون را بهینه می‌کند

کوالکام تراشه های اسنپدراگون را بهینه می‌کند

آیا عمر پردازنده‌های Core M اینتل به پایان رسیده ؟

آیا عمر پردازنده‌های Core M اینتل به پایان رسیده ؟

در سال ۲۰۱۴، کمپانی اینتل قول داد که پیاده‌سازی کم‌مصرف معماری برادول (Broadwell) این شرکت، همان انقلابی را به وجود بیاورد که تولیدکنندگان مختلف، مدت‌ها انتظار داشتند در معماری x86 این کمپانی ببینند. اینتل مدعی بود که استفاده از پردازنده‌های سری Core M کاهش بسیار چشمگیر مصرف انرژی را در پی داشته و موجب می‌شود فشرده سازی و اجتماع قطعات سخت‌افزاری به بهترین وجه شده و امکان ساخت سیستم‌های x86‌ بدون فن را برای اولین بار فراهم کند.

متاسفانه تاریخ این گونه نشان نمی‌دهد و ادعای اینتل ثابت نشد. گرچه پردازنده‌های Core M توانستند به موفقیت‌هایی در تبلت‌های بزرگ، الترابوک‌ها و تبلت‌های هیبریدی دست یابند، اما سخت‌افزار این تبلت‌ها نزدیک به پرازنده‌های core i3، i5 و i7‌ بوده است. برای این که دید بهتری به این موضوع پیدا کنید بهتر است بدانید که پس از یک بررسی مشخص شد که از بین ۳۲۸ مدل مختلف از تبلت‌های هیبریدی، تنها ۴۲ دستگاه از پردازنده‌های core M، M3 ،M5 و M7 بهره می‌برند. این بدان معناست که گرچه سری Core M به طور کامل از خطوط تولید کنار گذاشته نشده‌اند، اما توجه چندانی هم به آن‌ها نمی‌شود.

دیجیتال ترندز به تازگی مقاله‌ای منتشر کرده و در آن گفته است: «هیچ کس پردازنده‌های سری Core M اینتل را نمی‌خواهد و نمایشگاه کامپیوتکس هم صحت ادعای ما را ثابت کرد.» گرچه ممکن است وضعیت به اندازه‌ای که دیجیتال ترندز گفته است وخیم نباشد، اما تا حدودی هم باید به این حقیقت اعتراف کرد که بر خلاف ادعا و هیاهوی تبلیغاتی اینتل در سال ۲۰۱۴، پردازنده‌های سری Core M نتوانسته‌اند به انتخاب اصلی تولیدکنندگان دستگاه‌های هیبریدی تبدیل شوند. همچنین بر خلاف دیجیتال ترندز، ما گمان نمی‌کنیم که این مشکل مربوط به قیمت یا برند این تراشه‌ها باشد، چرا که اینتل معتبرترین سازنده‌ی تراشه در تمام دنیا است و قیمت‌گذاری این تراشه‌ها هم نسبت به مدل‌های دیگر اینتل منصفانه بوده است.

آیا عمر پردازنده‌های Core M اینتل به پایان رسیده ؟

آیا عمر پردازنده‌های Core M اینتل به پایان رسیده ؟

 

هدف اینتل از ساخت پردازنده‌های سری Core M قرار دادن گزینه‌های بیشتر در دسترس تولیدکنندگان اولترابوک‌های بالارده بود. این تولیدکنندگان پیش‌تر گزینه‌‌های محدودی در دسترس داشتند. متاسفانه در بسیاری از موارد، تولیدکنندگان ترجیح دادند که در کنار افزایش رزولوشن صفحه نمایش، تمرکز خود را روی کاهش ضخامت و رسیدن به باریک‌ترین طراحی ممکن قرار دهند و همین موجب شد که از پردازنده‌های Core M دوری کنند.

افزودن هر پیکسل به صفحه نمایش، بهایی دارد که باید پرداخت شود و آن هم مصرف بیشتر انرژی است. اگر بخواهید متنی را با بزرگنمایی ۱۵۰ تا ۲۰۰ درصد در صفحه نمایش جدید خود بخوانید، پیکسل‌هایی که حالا توسط چشم شما دیده نمی‌شوند مقداری انرژی مصرف می‌کنند که بیشتر از نمایشگر قبلی با رزولوشن کمتر است. صفحه نمایش رده‌بالا که دارای روزلوشن‌های بالایی هستند، خود انرژی گرمایی قابل توجهی تولید می‌کنند و همین موجب می‌شود که برای گرم شدن پردازنده، حد معینی تعیین کنیم که از آن فراتر نرود. چیپ‌های تولید شده توسط اینتل هنوز دارای مدار مجتمع وای‌فای یا رادیو روی خود نیستند، اما از طرفی مصرف انرژی آن‌ها از سیستم روی چیپ‌های ARAM که گزینه‌های یاد شده را بر روی خود دارند بالاتر است.

اینتل هرگز به صورت رسمی تایید نکرد که پردازنده‌های Core M از نسخه‌ی کم مصرف معماری ۱۴ نانومتری بهره می‌برند، اما اشاره‌هایی مختصر به این موضوع داشته است. مثلا در برخی از بیانیه‌های اینتل، به فرایند ۱۴ نانومتری ساخت این پردازنده‌ها و تمایز آن از فرایند ۱۴ نانومتری TriGate‌ معمول این کمپانی اشاره‌هایی شده است. اگر این موضوع صحت داشته باشد، بعید است که اینتل به همین راحتی قصد تعطیل کردن خط تولید تراشه‌های سری Core M خود را داشته باشد. اگر هم این کمپانی قصد توقف تولید این محصولات را داشته باشد، هنوز در حد پیشنهاد است و نمی‌توان زمان خاصی را برای آن تعیین کرد.

بررسی‌های دیجیتال ترندز روی باتری دستگاه‌ها هیبریدی نشان داد که اگرچه در شرایط بیکاری و استندبای، پردازنده‌های Core M نسبت به سایر پردازنده‌های مورد استفاده در این محصولات از نظر مصرف انرژی دارای بازدهی بهتری هستند، اما در عمل هنگام استفاده و در حین انجام کارهای عادی، تفاوت چندانی با سایر پردازنده‌ها ندارند. این وبسایت به بررسی سه مدل مختلف از کمپانی‌های سامسونگ، لنوو و ایسوس پرداخته است. مدل‌های Samsung Ativ Book 9 ،Zenbook UX305 و Lenovo T450s. مدل Ativ Book 9 سامسونگ از یکی از پردازنده‌های نسبتا قدیمی و سری اول خانواده‌ی Core M اینتل بهره می‌برد که مبتنی بر معماری برادول است، در حالی که مدل Zenbook UX305 ایسوس از یک پردازنده Core m3 6Y30 جدید و مبتنی بر اسکای‌لیک بهره می‌برد. بهینگی و عملکرد این دو مدل در مصرف باتری، با دستگاه T450s لنوو مقایسه شده است. این دستگاه از پردازنده‌ی core i5 5300U بهره می‌برد. در جدول زیر، نتایج این بررسی را مشاهده می‌کنید.

آیا عمر پردازنده‌های Core M اینتل به پایان رسیده ؟

آیا عمر پردازنده‌های Core M اینتل به پایان رسیده ؟

 

 

تفاوت زیاد بین مصرف باتری این دو پردازنده‌ی Core M در حالت استراحت و بی‌وظیفگی، نشان‌گر وجود تفاوت‌های ظریفی در تنظیم UEFI‌ این دو پردازنده است، و ناشی از تفاوت معماری این دو نیست. به همین دلیل است که در تست‌های بعدی، این دو پردازنده بسیار به هم نزدیک هستند.

این تست‌ها که بر اساس کارکرد معمول یک دستگاه در دنیای واقعی شبیه سازی شده‌اند و نتایج آن‌ها نشان داد که گرچه اینتل موفق شده است پردازنده‌هایی کم‌مصرف به کاربران عرضه کند، اما تنها اندکی کم مصرف‌تر. اینتل نتوانسته پردازنده‌هایی بسازد که به طور جدی و چشمگیری کم مصرف‌تر از نمونه‌های پیشین این کمپانی باشند. همان طور که در شکل بالا ملاحظه می‌کنید، اختلاف مصرف انرژی بین این دو گروه پردازنده در شرایط کاری عادی چندان زیاد نیست. نمی‌توان با اطمینان گفت که قیمت چقدر در این امر تاثیر داشته است.

از آن‌جا که Core M 2 in 1 یعنی نوع قابل استفاده‌ در تبلت‌های هیبریدی، نسبتا گران و مخصوص دستگاه‌های بالارده است، سازندگان محصولاتی همچون سرفیس ۳ که قیمت پایین دارد، ترجیح می‌دهند از پردازنده‌های سری اتم کمپانی اینتل بهره ببرند، چرا که این پردازنده‌ها بسیار ارزان‌تر از پردازنده‌های Core M هستند. مثلا پردازنده‌ی Atom x7-Z8700 تنها ۳۷ دلار قیمت دارد که در برابر قیمت‌های چندصد دلاری پردازنده‌های Core M 2 in 1 واقعا ناچیز است.

از طرفی می‌توان مواضع تند دیجیتال ترندز در برابر پردازنده‌های Core M را درک کرد. در مجموع، ممکن است این وبسایت در مورد فاصله گرفتن تولیدکنندگان از این پردازنده‌ها به خاطر قیمت‌ آن‌ها درست بگوید. کمپانی‌ها از این پردازنده‌ها در محصولات خود چندان استفاده نمی‌کنند، زیرا احتمالا این پردازنده‌ها برتری خاص و چشمگیری در ازای قیمت بالایشان ندارند. البته این فقط یک عقیده است و نمی‌توان عدم موفقیت این سری را فقط ناشی از قیمت آن‌ها دانست. پیش‌تر هم گفتیم که امروزه تولیدکنندگان در ساخت دستگاه‌های خود به صورت وسواس‌گونه‌ای به افزایش رزولوشن صفحه نمایش تا مقادیر بیهوده و صرفا تبلیغاتی، کاهش ضخامت و کم کردن وزن توجه می‌کنند. البته افزایش رزولوشن همیشه بیهوده نیست و کاربردی بودن یا نبودن آن به اندازه‌ی پنل صفحه نمایش دستگاه هیبریدی مورد نظر بستگی دارد. مثلا رزولوشن ۴K برای یک تبلت ۱۰ اینچی واقعا ضروری نیست، چرا که حتی اگر از پنلی با رزولوشن ۲K هم استفاده کنیم، باز هم می‌توان محتوای دلخواه را با بالاترین کیفیت مشاهده کرد.

در نتیجه‌ی اعمال تغییرات مذکور در طراحی و ساخت، طبیعتا فضای کمتری در دسترس بوده و باتری‌های کوچکتری هم در بدنه جای داده می‌شود و شاید همین امر موجب عملکرد نسبتا ضعیف پردازنده‌‌های Core M هم در عملکرد و هم در میزان مصرف انرژی شده است. کسب نتایج نزدیک در تست تعجبی ندارد. به هر حال این پردازنده‌ها با پردازنده‌های Core i5، i3 و i7 که در دستگاه‌هایی با اندکی ضخامت بیشتر استفاده شده‌اند مقایسه نشده‌اند. ضخامت و باتری دستگاه‌های بهره‌مند از پردازنده‌های Core i بیشتر از دستگاه‌های دارای پردازنده‌ی Core M است و همین موجب استفاده از باتری‌هایی نابرابر در این دو گروه از محصولات شده است.

اگر کمپانی اینتل تصمیم به توقف تولید پردازنده‌های سری Core M خود گرفته است، بهتر است این کار را تا زمان عرضه‌ی پردازنده‌های ۱۰ نانومتری سری Cannonlake به تاخیر بیندازد، چرا که اینتل هم اکنون روی فناوری ۱۴ نانومتری خود مانور می‌دهد. از طرفی پردازنده‌های Core M هم بر اساس همین فناوری ساخته شده‌اند و با حذف آن‌ها، محصول خارق‌العاده‌ای ساخته نخواهد شد، زیرا از لیتوگرافی کوچک‌تر خبری نیست و در هر صورت اینتل باید تا هنگام معرفی فناوری ۱۰ نانومتری خود، از تکنولوژی ۱۴ نانومتری استفاده کند و به همین دلیل نمی‌تواند با حذف سری Core M و ارائه‌ی یک سری ۱۴ نانومتری جدید، تغییرات شگرفی ایجاد کند. از طرفی اپل هم مک‌بوک خود را به پردازنده‌های Core M‌ مجهز کرده است و ممکن است بخواهد در نسل‌های بعدی اولترابوک خود مجددا از این پردازنده‌ها استفاده کند. بنابراین بهتر است اینتل فعلا دست نگه داشته و به تولید پردازنده‌های Core M خود ادامه دهد.

سرور جدید۳۰۰ دلاری جایگزین دسکتاپ

شرکـــت «HPE»  ســـرور رده‌پاییـــن ۳۰۰ دلاری‌ای بــــه نـــــام «ProLiant ML10 Gen9» معرفی نمود که می‌تواند به خوبی جایگزین کامپیوتر دسکتاپ ما شود. این سرورکه Mini Tower با اندازه ۴U برای کاربران خانگی و کسب‌وکارهای کوچک اداری طراحی و ساخته شده است و کاربران را از خرید سرورهای گران با قدرت محاسباتی بسیار زیاد که عمدتاً بدون مصرف باقی می‌ماند، بی‌نیاز می نماید.

 

هسته پردازنده این سرور می‌تواند از مدل‌های جدید اسکایلک اینتل، Core i3 یا Xeon E3-1200 V5 باشد. تعداد پردازنده نصب‌شده روی این سرور یک عدد بوده  ولی با دو یا چهارهسته که در کنار ۶۴ گیگابایت حافظه رم و چهار اسلات رم DDR4، می‌تواند عملیات پردازشی را سروسامان و روان نماید. شش درایو SSD روی این سرور نصب شده و مجهز به چهار اسلات توسعه برای اضافه نمودن قابلیت‌های سخت‌افزاری جدیدی می باشد. یک درگاه شبکه اترنت، چهار درگاه USB 3.0، دو درگاه USB 2.0 و دو درگاه eSATA، امکانات ارتباطی این سرور هستند. که می توان از آنها بهره برد.

این محصول به گونه ای طراحی شده است و از مشخصات سخت‌افزاری بهره برداری می کند که می‌تواند به‌عنوان سرور ذخیره‌سازی یا NAS، دستگاه ایستگاه کاری یا سرور محاسباتی قابل استفاده گردد. پیکره بندی‌های سخت‌افزاری مختلف این سرور شرکت‌های تجاری کوچک را یاری می‌کند تا بر اساس نیاز و رشد کسب‌وکارشان یک مدل از این سرور را تهیه نموده  و آن را ارتقاء دهند. امکان نصب چهار درایو SSD این قابلیت را فراهم می نماید تا از پیکره بندی‌های مختلف RAID برای پشتیبان‌گیری از اطلاعات استفاده گردد و با سخت‌افزارهای رمزنگاری، امنیت اطلاعات را تضمین نماید.

ساخت سرور جدید OpenPOWER با همکاری آی‌بی‌ام و انویدیا

ساخت سرور جدید OpenPOWER با همکاری آی‌بی‌ام و انویدیا

«OpenPOWER» سرور قدرتمندی است که برای کاربردهای محاسباتی با عملکرد و راندمان بالا (HPC) طراحی و عرضه می‌شود. اکنون «آی‌بی‌ام» با همکاری «انویدیا» و «وسترون» نسخه دوم این سرور را با استفاده از آخرین نسل پردازنده‌های فوق‌سریع Power8 خود معرفی کرده است.

 

انویدیا همچنین در این سرور از شتاب‌دهنده‌های گرافیکی Tesla P100 خود در کنار اینترکانکشن‌های مبتنی بر فناوری NVLink استفاده کرده است. سرور جدید برای تطبیق و استفاده از برنامه‌های لازم روی معماری جدید سخت‌افزاری‌اش نیاز به نرم‌افزارهایی دارد. آی‌بی‌ام و انویدیا توضیحات زیادی درباره این سرور نداده‌اند، به جز اینکه می‌دانیم از چندین پردازنده Power8 و چندین شتاب‌دهنده Tesla P100 بهره می گیرد و پهنای باند اینترکانکشن‌های NVLink، احتمالاً مثل مدل قبلی و برابر ۲۰ گیگابایت بر ثانیه هستند.

 

پردازنده‌های Power8 آی‌بی‌ام دارای ۱۲ هسته پردازشی هستند و در سرعت کلاک ۳ تا ۳٫۵ گیگاهرتز کار کرده و هریک می‌توانند تا هشت سخت‌افزار را به صورت Thread پشتیبانی نمایند. میزان حافظه نهان این پردازنده‌ها شش‌مگابایت از نوع L2 و ۵۱۲ کیلوبایت برای هر هسته در کنار ۹۶ مگابایت حافظه نهان L3 می باشد. هر پردازنده Power8 حداکثر از یک ترابایت حافظه رم پهنای باند ۲۳۰ گیگابایت پشتیبانی می نماید؛ در حالی که بهترین پردازنده‌های سرور اینتل، Xeon E5 v4 تنها از ۷۶٫۸ گیگابایت پهنای باند روی حافظه‌های رم DDR4 بهره می گیرد. به همین دلیل، سرورهای OpenPOWER برای کاربردهای بسیار سطح بالا و مکان‌های با حداکثر بار ترافیکی پردازشی طراحی شده‌ است و توان خروجی به اندازه برخی ابررایانه‌ها را ممکن پذیر می‌سازند.

مراکز داده غرق در حافظه‌های NAND؛ بررسی انواع فناوری درایوهای جامد حرفه‌ای مناسب سرور

مراکز داده غرق در حافظه‌های NAND؛ بررسی انواع فناوری درایوهای جامد حرفه‌ای مناسب سرور

تا چند سال گذشته استفاده از درایوهای SSD در کسب‌وکارهای حرفه‌ای و گسترده، سرورها و مراکز داده به دلیل هزینه بالا و ظرفیت ذخیره‌سازی کم قابل تصور نبود اما حالا استفاده از هارددیسک در سرورها متوقف شده و هر روز تعداد مراکز داده بیشتری مبتنی بر حافظه‌های فلش و SSD پیکربندی می‌شوند؛ گویی مسابقه و رقابتی برای به کارگیری این نوع استاندارد ذخیره‌سازی در جهان به راه افتاده اما با وجود اینکه قیمت این ذخیره‌سازها کاهش نیافته است، چه مزایای رقابتی‌ای دارند که باعث از دور خارج شدن HDD شدند و نه تنها در حافظه رم و حافظه فلش، بلکه در فضای ذخیره‌سازی با ظرفیت‌های بسیار بالایی مانند صد پتابایت نیز از SSD استفاده می‌شوند؟

 

فن آوری و انواع SSD ها در مراکز داده

درایوهای SSD حرفه‌ای که در سرورها و مراکز داده استفاده می گردند، با درایوهای SSD کامپیوترهای رومیزی، نوت‌بوک، تبلت و مانند این‌ها تفاوت‌های اساسی دارند. این درایوها در محیط‌های با بار کاری و ترافیکی بسیار بالایی مانند پایگاه‌داده‌ها، بیگ دیتا، ایندکس و لاگ‌گیری فایل‌ها و تراکنش‌ها، تحلیل اطلاعات و آمار و ارقام و مراکزی با ترافیک صدها گیگابایت اطلاعات در هر ثانیه استفاده میگردند.

مراکز داده که به اصطلاح Enterprise SSD نامیده می‌شوند و با این برچسب در بازار به فروش می گیرند، به طور کلی با استفاده از حافظه‌های فلش NAND ساخته شده و در مقایسه با هارددیسک‌های معمولی، کارایی بیشتر و مصرف انرژی کمتری دارند. همچنین این درایوها در مقایسه با SSDهای معمولی مزایای بیشتری داشته و دارند. برای مثال، علاوه بر کارایی بسیار زیاد، برای حفاظت از اطلاعات در هنگام قطع برق، از قابلیتی به نام DRAM-Stored استفاده می‌کنند، از الگوریتم تصحیح خطا (ECC) بهره می‌گیرند، جنس بدنه مقاوم‌تر شده و سازگاری با شرایط خاص را دارند و سیستم خنک‌کنند‌گی آن‌ها متفاوت می باشد. همچنین از ضمانت‌های طولانی‌مدتی نیز بهره می‌برند.

SSD اینترپرایز به گونه‌ای طراحی می‌شود که در مقایسه با SSD معمولی، پایداری و سطح مقاومت بیشتری داشته باشد. این درایوها از نوعی حافظه فلش NAND به نام Wear-Out استفاده می‌کنند که امکان چندین بار پاک کردن و نوشتن مجدد چیپ‌ست SSD را فراهم می سازند. سازندگان SSD اینترپرایز طوری حافظه‌های NAND را با استفاده از تکنیک‌ها و الگوریتم‌هایی مانند Wear-Leveling، Self-Healing و  Over-Provisioning طراحی و تولید می نمایند که در طول زمان بر استقامت و استواری آن‌ها افزوده می شود. با استفاده از تکنیک Over-Provisionin، تعداد حافظه NAND بیشتری در درایو SSD اینترپرایز گنجانده می‌شود تا در هنگام عملیات بازنویسی چیپ‌ست یا خرابی‌ها، استفاده و جایگزین شوند.

تنوع در استفاده از انواع حافظه‌های فلش NAND و تکنیک‌های مقاوم‌سازی و افزایش ظرفیت ذخیره‌سازی، سبب شده که اکنون در بازار با طیف‌های مختلفی از درایوهای SSD مناسب مراکز داده روبه‌رو بشویم

درایوهای SSD اینترپرایز جدید که در سال‌های اخیر عرضه شده‌، از یک سطح سلولی (SLC) حافظه NAND استفاده می‌نمایند که باعث شده هر بیت در یک سلول نوشته شده در نتیجه، بیشترین سطح کارایی و پایداری با دوره زندگی (LifeCycle) نزدیک به صد هزار بار نوشتن روی هر سلول به دست آید. پیشرفت‌ها و بهبودهای چند سال اخیر در حوزه تولید حافظه‌های فلش، به سازندگان SSD این قدرت را داده اند که از انواع حافظه‌های فلش مانند Multi Level Cell (MLC) ،(TLC) Triple Level Cell و ۳D NAND در ساخت SSD اینترپرایز استفاده کنند و در نتیجه با کمترین رقم هزینه، بالاترین ظرفیت ذخیره‌سازی و پایداری را به دست آورند. تنوع در استفاده از انواع حافظه‌های فلش NAND و تکنیک‌های مقاوم‌سازی و افزایش ظرفیت ذخیره‌سازی، سبب شده که اکنون در بازار با طیف‌های مختلفی از درایوهای SSD مناسب مراکز داده روبه‌رو بشویم که هریک برای محیط‌های کاری و کاربردهای خاص طراحی و تولید شدند. برای مثال، شرکتی درایوهای SSD با ظرفیت‌های بسیار بالا تولید می‌کند که فقط مناسب استفاده در محیط‌های نرم‌افزاری و پایگاه داده‌ای با بار کاری بالا برای نوشتن و خواندن اطلاعات هستند. درایو SSD دیگری برای نوشتن کامل روی درایو در یک روز (DWPD) طراحی شده است؛ به این معنی که هر روز کل ظرفیت درایو پر شده و روز بعد دوباره از ابتدا بازنویسی و پر می‌شود و در تمام سال این فرایند تکرار خواهد شد. درایو دیگری ممکن است از فرایند ۲۵ DWPD با ظرفیت‌های بسیار کم برای پشتیبانی از اطلاعات حساس بهره برداری کند.

همان‌ گونه که درایوهای SSD حرفه‌ای از فناوری‌ها و تکنیک‌های مختلفی بهره می‌گیرند؛ در شکل و قالب و رابط کاربری مختلفی به بازار عرضه می‌گردند. رابط کاربری بیشتر این درایوها یکی از مدل‌های serial ATA (SATA)، serial-attached SCSIم(SAS) و PCI Expressم(PCI-e) برای انتقال اطلاعات به واحدهای پردازنده یا دریافت اطلاعات از آن‌ها می باشد. از نظر اندازه نیز رایج‌ترین‌ها ۵/۲ اینچی هستند که به آسانی در باکس‌های هارددیسک‌ها جایگذاری می‌شوند، اما اندازه‌های half-height half-lengthم(HHHL) با استفاده از افزودن کارت توسعه و مدل‌های M.2 که در اسلات‌های توسعه PCI-e کامپیوترهای معمولی قرار می‌دهند، در بازار یافت می‌شوند. همچنین مدل‌های DIMM نیز با چیپ‌ست و بردهای کوچک برای ارتباط با مادربرد کامپیوترهای معمولی عرضه شده‌ و مورد استفاده قرار می گیرند.

مراکز داده غرق در حافظه‌های NAND

مراکز داده غرق در حافظه‌های NAND

دلایل مهاجرت

اکنون، به نقطه‌ای رسیده‌ایم که استفاده از درایوهای SSD توجیه‌پذیر شده. این حافظه‌ها در شبکه‌های اینترپرایز و سرورها کارایی بسیار بالاتر و بهتری از خود نشان می‌دهند که بر اثر آن با پردازش حجم کاری جدیدی روبه‌رو می گردیم. همچنین این درایوها توانسته‌اند رضایت کامل کاربران نهایی را جلب نمایند و مدت زمان پاسخ‌گویی و اجرا بسیار مناسبی در شبکه‌های پرسرعت و بی‌درنگ نشان دهند. در بسیاری موارد، SSD باعث جلوگیری از خرید سرور جدید می گردد و این برای کسب‌وکارها بسیار حائز اهمیت است. چه دلایلی بهتر از این‌ها برای مهاجرت از HDD به SSD سراغ دارید؟

در چندین سال اخیر و با ورود شرکت‌های بزرگ سازنده حافظه‌های NAND به دنیای سرورها و مراکز داده، درایوهای SSD به نقطه اوج خود رسیده اند. در مقایسه با هارددیسک‌های سنتی، درایوهای جدید ذخیره‌سازی، مدت‌زمان تأخیر کمتری داشته و همچنین  SSD جدید در مقایسه با هارددیسک‌ها، حدود هزار برابر در واحد IOPS تأخیر کمتری دارند، اما توان خروجی آن‌ها سه تا پنج برابر بیشتر شده است. به همین دلیل می‌توان گفت در سال جاری میلادی، SSD به طور کامل در حال جایگزین شدن با HDD می باشد.

مراکز داده غرق در حافظه‌های NAND

مراکز داده غرق در حافظه‌های NAND

صرفه‌جویی هزینه‌ای و کارایی، تنها دلایل استقبال از SSD نیست، برخی کارهای خاص با این درایوها بسیار ساده‌تر و سریع‌تر از گذشته انجام می گردد.

بدون شک، سرورهایی که مستقیماً از درایوهای SSD به‌عنوان ذخیره‌ساز داخلی خود استفاده می‌ نمایند، سریع‌تر هستند. آشکار است که کسب‌وکارها، به سرورهای کمتری برای بار کاری و ترافیک خود نیاز خواهند داشت و در هزینه‌ها صرفه‌جویی می‌شود. علاوه بر سرعت، درایوهای SSD در طول عمر مفید سرورها نیز تأثیرگذار هستند و کمک می‌کنند سرورها بیشتر در شبکه استفاده گردند. فناوری‌ها و ابزارهای نرم‌افزاری جدید نیاز به جابه‌جایی هارددیسک‌ها با SSD را برطرف کرده‌اند و تنها با اضافه کردن دو یا چهار SSD به سرور، می‌توان به‌سادگی اطلاعات کم‌اهمیت را روی هارددیسک‌ها کپی و از آن‌ها به‌عنوان ذخیره‌سازهای جانبی استفاده نمود و در عوض، درایوهای SSD به‌عنوان حافظه‌های اصلی سیستم به کار گرفته شوند.

مراکز داده غرق در حافظه‌های NAND

مراکز داده غرق در حافظه‌های NAND

صرفه‌جویی هزینه‌ای و کارایی، تنها دلایل استقبال از SSD نیست، برخی کارهای خاص با این درایوها بسیار راحت تر و سریع‌تر از گذشته انجام می گردد. به عنوان مثال، اسکن مرتب ویدیوهای در حال ویرایش، نیازمند آرایه‌های RAID بزرگ برای کاهش تأخیر می باشند. حالا، این کار که در گذشته بسیار سخت و طاقت‌فرسا بود، به میمنت ایستگاه‌های کاری مبتنی بر SSD بسیار راحت و امکان‌پذیر شده است. همچنین عملیات‌ جست‌وجو در پایگاه‌های داده به فضاهای ذخیره‌سازی بسیار سریع نیازمند است.در دنیای تراکنش‌های مالی، درایوهای SSD باعث کاهش تأخیر دسترسی به جدول‌های مالی و در نتیجه کاهش هزینه‌های تراکنش‌ها در مقیاس مگا-دلار در هر ثانیه شده‌است.

سرورهای SSD نیز باعث نجات سرویس‌های کلاود شدند. در گذشته اولین مشکل سرویس‌های محاسبات ابری، تأخیر و نرخ خواندن I/O روی تجهیزات ذخیره‌سازی بود. سرورها نمی‌توانستند به سرعت و بی‌درنگ درخواست‌های واحدهای پردازشی گرافیکی با حجم زیادی حافظه رم را پاسخ‌گو بوده و بر حسب تقاضا بتوانند عملیات‌ را بدون تأخیر تأثیرگذار و مختل‌کننده انجام دهند. این وضعیت در سرورهای مجازی و دستگاه‌های ذخیره‌سازی محلی وخیم‌تر می‌شد. در حالی که بسیاری از شرکت‌ها راه‌حل را استفاده از تعداد زیادی HDD برای بار کاری زیاد می‌دانستند، SSD به‌راحتی این مشکل را حل نمود.

مراکز داده به تسخیر SSD درآمدند

در گذشته‌های بسیار دور، سرویس‌های کلاود گسترده‌ای مانند AWS یا گوگل از ارائه سرویس‌های ذخیره‌سازی خودداری می‌کردند و مشتریان باید به سراغ سازندگان سرورهای سنتی مانند سوپرمیکرو، لنوو، کوانتا و میتک اینترنشنال می‌رفتند تا مستقیماً و به ازای پرداخت هزینه، از فضای ذخیره‌سازی استفاده نمایند. در سال ۲۰۱۶، مراکز داده سطح متوسط بازار به راهکار جدید و به‌صرفه‌ای دست پیدا نمودند. این مراکز داده به سراغ سازندگان سرور ODM رفتند تا از درایوهای SSD در سیستمشان استفاده کنند. در این حالت و با SSD، هزینه هر یک ترابایت حدود ۳۰۰ دلار ‌می‌شد، اما هزینه یک ترابایت هارددیسک SAS روی سرورهای دل، حدود ۷۰۰ دلار خرج دارد. حتی اگر شرکت‌های ODM سرور، از SSD استفاده کنند، ۹۶۰ گیگابایت فضای ذخیره‌سازی روی SSD حدود ۵۳۳ دلار هزینه دارد که باز هم در مقایسه با ۳۰۰ دلار هزینه زیادی است. این قیمت‌ها داستان بی‌اساس گران‌تر بودن SSD را به چالش می‌کشاند. در گذشته، هرگاه از شرکت‌های ODM درباره اینکه چرا امکان استفاده از SSD را فراهم نمی‌کنند سؤال می‌شد، پاسخ می‌دادند که بسیار گران‌تر از هارددیسک‌های سنتی هستند و به‌خصوص در سرورها و مراکز داده که حجم زیادی از ذخیره‌سازی اطلاعات دارند، این گران‌تر بودن گاهی چندین برابر می‌شود. این تصور ما زمانی درست است که SSD را از شرکت‌های سازنده آرایه‌های ذخیره‌سازی تهیه نمایید؛ از آنجا که این شرکت‌ها، درایوهای SSD را بر اساس معماری خودشان تغییر می‌دهند، آن را گران‌تر می‌فروشند، اما وقتی درایو SSD خامی را از بازار تهیه کنید، حتی ارزان‌تر از سیستم‌های ذخیره‌سازی سنتی مبتنی بر هارددیسک خواهد بود.

کارشناسان شبکه‌های کامپیوتری و مراکز داده قبول کرده اند که در این حوزه و بازار، کارایی SSD بهتر از HDD بوده و عملکرد بهتری داشته و بهتر است در تجهیزات ذخیره‌سازی، حافظه‌های رم، حافظه‌های فلش ابررایانه‌ها و حافظه‌های جانبی، از درایوهای SSD استفاده نمایند.

مراکز داده غرق در حافظه‌های NAND

مراکز داده غرق در حافظه‌های NAND

موضوع بعدی درباره SSD، به طول عمر کارایی مؤثر آن بازمی‌گردد. در گذشته، این باور اشتباه وجود داشت که طول عمر مفید حافظه‌های فلش کمتر از هارددیسک‌ها است، ولی امروزه ثابت شده طول عمر مفید SSD پنج سال است؛ در حالی که حافظه فلش MLC فقط چهار سال عمر می‌‌کند. اگر دوره تازه‌سازی سرور ۳۶ ماه باشد، قالب حافظه‌های فلش بیشتر از این دوره عمر خواهند کرد و بنابراین دلیلی برای استفاده نکردن از آن‌ها در سیستم سروری یا مراکز داده وجود ندارد.

همین دلایل باعث شده رقابت شدیدی میان عرضه‌کنندگان SSD برای سرورها و مراکز داده به وجود آید و شرکت‌های بزرگی مانند سامسونگ، دل، اینتل، آی‌بی‌ام، سوپرمیکرو، سن دیسک، میکرون و مانند این‌ها، در دو سال اخیر چندین نوع حافظه فلش و SSD به طور اختصاصی برای استفاده در سرورها و مراکز داده وارد بازار نمایند و هریک در تلاش باشند فناوری‌های پیشرفته‌ای را به کار بگیرند تا هم سرعت افزایش پیدا کند، هم حجم فیزیکی کاهش پیدا نماید، هم ظرفیت بیشتر شود و در نهایت قیمت تمام‌شده برای هر گیگا – دلار کمتر گردد.

چرا کارایی SSD بهتر از HDD است؟

مدیران  شبکه‌های کامپیوتری و مراکز داده پذیرفته‌اند که در این حوزه و بازار، کارایی SSD بهتر از HDD بوده و بهتر است در تجهیزات ذخیره‌سازی، حافظه‌های رم، حافظه‌های فلش ابررایانه‌ها و حافظه‌های جانبی، از درایوهای SSD استفاده کنند. اما چرا کارایی SSD بهتر از HDD است؟

نخست اینکه SSD محدودیت‌های سیستم‌های RAID را پوشش می‌دهد. قالب کنترلرهای RAID در پیکربندی RAID 5 از نظر سرعت دچار تنگناهایی می‌شوند که درایوهای SSD این مشکل را برطرف می‌کنند. چون این درایوها سریع بوده و برای مثال چهار SSD در کنار یکدیگر می‌توانند خروجی برابر با ۶/۱ گیگابایت IOPS را ارائه نمایند، بنابراین  از هر موتور کنترلر RAID XOR سریع‌تر هستند. در این شرایط، موتورهای RAID بهتر می‌توانند کارها را پیش برده و با کمک پردازنده‌ها، وقفه‌های رخداده را نیز رفع نمایند. هنگامی که از درایوهای SSD در سیستم‌های ذخیره‌سازی استفاده می‌شود، بهتر است برای محافظت از اطلاعات، پیکربندی‌های RAID 1 یا RAID 10 انتخاب گردند.

دوم، اگر نیازهای ظرفیتی ذخیره‌سازی سرورها را مد نظر بگیریم، متوجه خواهیم شد که درایوهای SSD در مقایسه با HDD انتخاب بهتری می باشند. نرم‌افزارهای تست و ارزیابی عملکرد نشان می‌دهند درایو SSD با ظرفیت ۱۲۸ گیگابایت، در مقایسه با هارددیسکی با ظرفیت ۵۰۰ گیگابایت و قیمت ۱۵۰ دلار، کارایی بسیار بیشتری دارد. بنابراین، اگر نیازهای ظرفیتی ذخیره‌سازی سرور در حدود ۱۲۸ گیگابایت است، دلیلی وجود نخواهد داشت که به دنبال خرید هارددیسک ۵۰۰ گیگابایتی برویم.

آینده

شرکت‌هایی مانند «اینتل» و «سامسونگ»، در حال توسعه حافظه‌های فلش ۳D NAND هستند و در تلاش هستند ظرفیت ذخیره‌سازی روی Die را افزایش دهند. اینتل با همکاری میکرون توانسته روی یک Die ظرفیت ۴۸ گیگابایت، اطلاعات را با ساختار ۳۲ لایه‌ای از سلول‌‌های ۳D NAND ایجاد نماید که در نتیجه آن شاهد عرضه درایوهای SSD حرفه‌ای با ظرفیت چند ترابایت خواهیم بود. پیش‌بینی شده در سال ۲۰۱۸ درایوهایی مناسب مراکز داده با ظرفیت‌های ده ترابایت ساخته گردند. از سوی دیگر، بازدهی هارددیسک‌های معمولی کمتر از حافظه‌های فلش NAND می باشد و در راهکارهای ذخیره‌سازی مبتنی بر هارددیسک‌ها، در حال حذف شدن از سرورها و مراکز داده می باشند. اما در برخی مراکز داده حجم‌های ذخیره‌سازی بسیار وسیعی با هارددیسک‌ها ساخته شده است که به این زودی‌ها امکان جایگزینی با حافظه‌های فلش NAND را نداشته و ندارند. بر همین اساس، کارشناسان پیش بینی کرده اند تا پنج سال آینده رویکرد استفاده هم‌زمان از هارددیسک‌ها و درایوهای SSD وجود داشته باشد تا درایوهایی با استفاده از حافظه فلش، اما در ظرفیت‌های بسیار بالاتر ساخته شود که بتوان آن‌ها را در سیستم‌های قدیمی بسیار گسترده به کار گرفت و مورد بهره برداری قرار داد.

نکاتی خاص برای انتخاب SSD حرفه‌ای مراکز داده

نکاتی خاص برای انتخاب SSD حرفه‌ای مراکز داده

مدیران ارشد شبکه باید بین نیازهای ظرفیت و سرعت بیشتر، پایداری کل سیستم و تجهیزات ذخیره ‌سازی قدیمی تعادل برقرار نمایند و به همین خاطر است مه با انتخاب‌های سخت‌تری روبه‌رو هستند. همچنین، این انتخاب‌ها فقط بر اساس یک محصول ویا کالا نیست، بلکه باید راهکار مناسبی گزینش شود. در ادامه به پنج نکته اشاره مختصری خواهیم نمود که مدیران شبکه را در انتخاب SSD مناسب یاری می‌کنند.

۱-نیازمندی‌های برنامه‌های کاربردی شبکه تان را بررسی نمایید

کسانی که فکر می‌کنند SSD فقط یک SSD است، سخت در اشتباه بزرگی هستند. در دنیای امروزه، درایوهای SSD گوناگونی برای انجام کارهای بسیار متنوع‌ ساخته و طراحی شده است. در واقع هر SSD، روش منحصربه‌فرد خود را برای سروسامان دادن به درخواست کاری دارد. ممکن است یک مدل SSD برای بار کاری خواندن اطلاعات طراحی و بهینه شده و مناسب باشد و در سیستم‌های کلاینت-کلاس مناسب کار کند. برعکس، ممکن است مدل دیگر SSD برای محیط‌های مبتنی بر نوشتن اطلاعات طراحی و ساخته شده باشد. بنابراین بسیار حائز اهمیت است که برآورد و نگرش درستی از نیازمندی‌های برنامه‌های کاربردی نصب‌شده روی سرورها و مراکز داده خود داشته باشید و بدانید قرار است چه عملیاتی روی درایوهای SSD انجام شود. اگر بدون داشتن چنین اطلاعاتی به پرس و جو در بازار بپردازید، ممکن است مدلی را خریداری کنید که پاسخ‌گوی نیازهای شما نباشد و در آینده با مشکل روبرو شوید.

 نکاتی خاص برای انتخاب SSD حرفه‌ای مراکز داده

نکاتی خاص برای انتخاب SSD حرفه‌ای مراکز داده

۲- به هزینه TCO دقت کنید؛ نه قیمت محصول

قبل از خرید، بهتر است کمی وقت صرف کنید و کل هزینه های به کارگیری درایوهای SSD را که شامل هزینه خرید، استقرار، نگهداری و پشتیبانی، خنک‌کنندگی، به‌روزرسانی، تعویض و هزینه‌های مرتبط دیگر مربوط می شوند را محاسبه کنید. بعضی از افراد فقط هزینه خرید SSD را در نظر گرفته و هر راهکار یا محصولی را که ارزان‌تر باشد، انتخاب و خرید می‌کنند. اما ممکن است این افراد به زودی پشیمان شده، چون هزینه‌های دیگری که مرتبط با این نوع درایوهای ذخیره‌سازی می باشند در طول زمان بیشتر شود. برای مثال، عمر مفید یک SSD کمتر از چیزی باشد که تصور می‌کنید. ابزارهایی برای محاسبه هزینه TCO ارائه شده است که کار شما را آسان‌تر می‌کند.

۳- $/TBW به جای $/GB

در زمان گذشته وقتی قصد داشتیم هارددیسک انتخاب نماییم، هزینه یک گیگابایت فضای ذخیره‌سازی را محاسبه می‌نمودیم و بعد تصمیم می‌گرفتیم. اما برای انتخاب یک SSD اینترپرایز، این دیدگاه غلط می باشد و باید با دیدگاه هزینه نوشتن روی هر یک‌ ترابایت اطلاعات، جایگزین شود؛ چراکه در سیستم‌های ذخیره‌سازی گسترده، میزان عملیات نوشتن در هر سال اهمیت بسیار زیادی دارد و هر درایو SSD که بتواند از نظر نوشتن طول عمر بیشتری داشته باشد، به‌صرفه‌تر می باشد. وقتی $/TBW  را محاسبه می‌کنید، ممکن است به نتایج شگفت‌انگیزی برسید و متوجه می شوید SSD ارزان در $/TBW گران است، چون طول عمر مفید نوشتن آن زود تمام می‌شود و باید با SSD دیگری جایگزین آن کنید.

۴- خنک و بی صدا

مصرف انرژی و خنک‌ سازی ذخیره‌ساز از برجسته ترین نکات در انتخاب و خرید این دستگاه‌ها می باشد. معیاری که باید به آن توجه نمایید، IOPS/Watt است. هدف این می باشد که بیشترین توان خروجی را با کمترین میزان مصرف انرژی به دست آورید. اگر یک SSD با مصرف انرژی زیاد خریداری کنید، هزینه‌های سربار شما در طول چند سال، چندین برابر خواهد شد. تمام درایوهای SSD در بهترین حالت مصرف انرژی، خنک‌کنندگی و توان خروجی ساخته نشده‌اند و به همین دلیل باید به دنبال انتخاب درایوی باشید که در معیار IOPS/Watt جزء بهترین‌ها و ایده آل ها باشد. چنین درایوی قادر است تا ۸۰ درصد هزینه‌های مصرف انرژی و خنک‌کنندگی را کاهش دهد.

۵- تأخیر

مدیران فناوری اطلاعات و شبکه برای خرید SSD، ابتدا به مزایا و کارایی آن برای استفاده در سیستمشان و برنامه‌های کاربردی آنها توجه می نمایند. گاهــی زمــــان تأخیر SSD، تمام این تفاوت را نشان می‌دهد. وقتی موضوع تأخیر را بررسی می‌نمایید، بسیار حائز اهمیت است که معیارتان چیزی فراتر از حد متوسط بازار قرار دهید. همچنین باید بررسی نمایید که این تأخیر فقط محدود به همان SSD می‌شود یا به کل آرایه درایوهای ذخیره‌سازی منتقل خواهد شد و در نهایت چه مقدار ‌زمان تأخیری به وجود خواهد آمد. گاهی تأخیر SSD بسیار کم بوده، اما در سیستم شما تبدیل به مشکلی بزرگ خواهد بود. مدت زمان متوسط پاسخ‌گویی را نیز در نظر داشته باشید.

==============================

سوئیچ های یک مولکولی جهش در کامپیوترهای نوری

دانشمندان به دلایل کاملا شفافی خود را در زمینه الکترونیک نوری درگیر نموده‎اند: نور سریع‎تر از الکتریسیته حرکت می‎کند، و این به این معنا می باشد که می‎توان محاسبات را سریع‎تر انجام داد. به گفته Scientific American، کوچک‎تر شدن وسایل و قطعات نیز باعث افزایش بیشتر این سرعت می‎شود که برای سیستم‎هایی نظیر پنل‎های خورشیدی، سنسورهای نوری یا کاربردهای زیست پزشکی بسیار مفید و سودمند خواهد بود.

تلاش‎هایی که گذشته انجام شده برای ساخت این تجهیزات تک مولکولی نتایج مثبتی به همراه نداشته است، که از جمله می توان به سوئیچ‎هایی که در موقعیت روشن گیر می‎کردند و یا قادر نبودند توسط انواع مختلف نور فعال شوند. محققان دانشگاه پکینگ از مواد متفاوتی برای انجام این کار استفاده کرده‎اند که به یک سوئیچ اجازه می‎دهد با ثبات کامل  توسط نور در هر دو موقعیت باینری (صفر و یک) عمل کند.

سوئیچ های یک مولکولی جهش در کامپیوترهای نوری

سوئیچ های یک مولکولی جهش در کامپیوترهای نوری

این سوئیچ می‎تواند به مدت یک سال دوام داشته باشد که نسبت به تلاش‎های اولیه پیشرفت قابل ملاحظه‎ای محسوب می‎شود. ایان بالدیا از دانشگاه هایدلبرگ آلمان به Scientific American گفت که در بسیاری از موارد، ارتباطات مولکولی تنها برای لحظات، ساعات و در شرایط مطلوب برای چند روز باقی می‎مانند. اگرچه هنوز چند سالی باقی مانده تا ما بتوانیم شاهد حضور چنین سوئیچ‎هایی در قطعات تجاری باشیم، اما انجام چنین کارهایی گام بزرگی برای ساخت تجهیزات باثبات در مقیاس میکروسکوپی و ریز قطعات محسوب می‎شود.

 

چرا به پردازنده ۱۰۰۰ هسته ای نیاز داریم؟

چرا به پردازنده ۱۰۰۰ هسته ای نیاز داریم؟

در هفته جاری شاهد معرفی پردازنده‌ی بسیار کم مصرف با ۱۰۰۰ هسته‌ی پردازشی بودیم. اما پردازنده‌‌ی ۱۰۰۰ هسته‌ای در چه زمینه‌ای استفاده می‌شود و به چه دلیل باید تعداد زیادی هسته برای پردازنده داشته باشیم؟ با نتکو باشید.

قانون مور که بیان می‌کرد تعداد ترانزیستورها در پردازنده‌ها هر دو سال دو برابر می‌شود، چندان پایدار نبوده و تولیدکنندگان قادر نشدند که در مساحت یکسان، پردازنده‌هایی با دو برابر ترانزیستور بیشتر نسبت به ۲ سال قبل تولید کنند، حتی اگر این امکان وجود داشته باشد، افزایش ترانزیستورها به این معنی که افزایش دو برابری سرعت اجرای اپلیکیشن‌ها نخواهد بود. در این راستا برنامه‌نویسی معروفی به نام هرب ساتر، در یک مقاله‌ی مفصل در سال ۲۰۰۴ پیش‌بینی نمود که افزایش سرعت کلاک CPUها به حداکثر رسیده است و افزایش فرکانس نیز نمی‌تواند چندان در افزایش سرعت اجرای اپلیکیشن‌ها، موثر واقع گردد.

 

در عوض در دنیای GPUها یا پردازنده‌های گرافیکی، ترانزیستورها به جای اینکه تعداد محدودی هسته را تشکیل دهند، چندین هسته را تشکیل می‌دهند و پردازش موازی این هسته‌ها باعث شاهد رشد چشم‌گیر نسل‌های مختلف کارت‌های گرافیک نسبت به نسل‌های قبلی باشیم. به عنوان مثال در کارت گرافیک جدیدِ GeForce GTX 1080 از انویدیا شاهد بکارگیری ۲۵۶۰ هسته می باشیم که با فرکانس ۱۶۰۰ تا ۱۷۰۰ مگاهرتز کار می‌کنند. برنامه نویس‌ها و developerها نیز نرم‌افزارهایی ساخته‌اند که به بخش‌های کوچک تقسیم می‌شود تا توسط این GPUها پردازش شود. بازی‌ها یا نرم‌افزارهای علمی از این دسته هستند که عموما پردازش مربوط به آن‌ها توسط GPU انجام می‌شود.

چرا به پردازنده ۱۰۰۰ هسته ای نیاز داریم؟

چرا به پردازنده ۱۰۰۰ هسته ای نیاز داریم؟

اما در دنیای امروزی، اکثر نرم‌افزارها تنها با یک Thread اجرا می‌شوند و به همین دلیل است که تغییری در سرعت اجرای آن‌ها با یک پردازنده‌ی ۴ هسته‌ای و همان پردازنده با یک هسته وجود ندارد. قسمتی از این مشکل به دلیل ضعف نرم‌افزارها است که جوری برنامه نویسی نشده‌اند که از تمام توان پردازنده‌ها و هسته‌ها استفاده کنند. از طرفی برخی از دستورات نیز آنقدر پیچیده هستند که به راحتی نمی‌توان آن‌ها را به چندین بخش کوچک تبدیل کرد.

تبدیل ترانزیستورهای بیشتر به نرم‌افزارهای سریع‌تر، روز به روز سخت و دشوار می‌شود

 

با این حال، به احتمال زیاد در آینده، پردازنده‌ها به هسته‌های ضعیف‌تر اما بسیار بیشتر مجهز خواهند شد؛ چرا که سرعت پردازشِ پردازنده‌ها با روش فعلی به کندی افزایش می‌یابد و چاره‌ای جز اضافه کردن تعداد هسته‌ها نیست. به همین دلیل است که خبر ساخت پردازنده‌ی ۱۰۰۰ هسته‌ای مهم و خبرساز می‌شود.

 

معماری تراشه‌ها به نوعی عجیب و بسیار پیچیده است و اگر تعداد هسته‌ها را در پردازنده‌ها افزایش دهیم شاید مجبور شویم که کل ساختار کامپیوترها را تغییر دهیم. در پردازنده‌ها، هر کدام از هسته‌ها تقریبا فضای مستقل و جداگانه‌ی خود را دارند و هسته‌ها از طریق شبکه‌ی داخلی خود با یکدیگر ارتباط ساختاری برقرار می‌کنند. به همین دلیل است که کار برنامه‌نویس‌ها برای استفاده از تمام توان هسته‌ها دشوار می‌شود. در همین راستا ایده‌های مختلفی مطرح شده است که شاید جذاب‌ترین آن‌ها معماری KiloCore است که بکار گیری از ۶۴ هسته در پردازنده را ساده‌تر می‌کند. مهم‌ترین برگ برنده‌ی کیلوکور در مصرف بهینه‌ی انرژی است. تیم UC Davis بیان می کند که کیلوکور تا ۱۰۰ برابر مصرف بهینه‌تری از پردازنده‌ی لپ‌تاپ‌های مورد استفاده شده در حال حاضر را دارد. یک پردازنده با این معماری حتی با یک باتری قلمی نیز کار می‌کند.

 

در نتیجه برای آنکه شاهد پردازنده‌های قوی‌تر، سریع‌تر و کم‌مصرف‌تری باشیم احتمالا باید بدنبال طراحی CPUهای شبیه به GPU با هسته‌های زیاد باشیم. پردازنده‌هایی که تعداد هسته‌ی زیاد با فرکانس پایین‌تر دارند و قادر به پردازش موازی تعداد زیادی عملیات کوچک هستند. اما برای رسیدن به کامپیوترهای سازگار به این نوع پردازنده‌ها، راه پر و پیچ و خم و دشواری پیشِ رو است و باید تولیدکنندگان سخت‌افزار و نرم‌افزار عزم خود را جزم نمایند.

فناوری NFC

فناوری NFC

همیشه برقراری ارتباط بین تجهیزات دیجیتالی پیچیده نیست گاهی فقط کافیست اونها رو کنار هم قرار بدیدن. امروز با توجه به دستگاه های بیشتری که هر روز وارد بازار میشه، میخواهیم بیشتر راجع به مزایا و معایب این فناوری بگیم و اینکه این فناوری تا چه اندازه توی تجهیزات دیجیتالی امروزی، مصرف داشته.

NFCیه پروتکل است که برای انتقال با برد کوتاه در حد چند سانتیمتره، این پروتکل یه شکل پیشرفته تر از تکنولوژی RFID محسوب میشود. با این تفاوت که فناوری RFID  یک ارتباط یک طرفه می باشد، که در آن همیشه یک فرستنده که غالبا شبیه یک برچسب می باشد،که اطلاعات رو ارسال میکنه و یک دستگاه هم که نقش گیرنده رو ایفا میکند میتونه اطلاعات روی اون برچسب رو دریافت بکنه.

 

اما فناوری NFC میتونه یه ارتباط دو سویه باشه، یعنی فرستنده و گیرنده بسته به نیاز کاربر، میتونند نقش هاشون رو با هم عوض کنند.

هر دو فناوریNFC  و  RFIDبسیار به هم شبیه هستن ولی RFIDپیش از  NFC طراحی شده و به همین دلیل شهرت بیشتری نسبت به  NFCدارد.

طراحی این برچسب ها کار آن چنان دشواری نیست. مسیر انتقال هم، موج کوتاه رادیوی است.

در عین حال فرستنده به نحوی تنظیم میشود که اطلاعات اون توسط RFID readerیاNFC reader خونده بشه.در فناوری NFCبه تازگی برچسب هایی طراحی شدن که از میدان مغناطیس برای فعال سازی و ارسال اطلاعات استفاده میکنن.البته خیلی ها هم، فناوری NFC رو با بلوتوث مقایسه می کنن.ولی باید گفت هر کدوم از این فناوری ها کاربرد مخصوص خودشون رو دارن، و تفاوت زیادی بین اونها وجود داره.

ولی NFC کجاها کاربرد داره؟ و آیا فکر میکنید تا به امروز از این تکنولوژی  استفاده کردید یا نه؟

کاربردهای NFCبه سه دسته تقسیم میشه: اولانتقال اطلاعات: مثل زمانی که فایلی رو از یک گوشی به گوشی دیگه منتقل میکنیم.دوم هماهنگی: مثل زمانیکه اطلاعات شبکه ایکه بهش متصل هستیم رو عینا به گوشی یا دستگاه دیگه ای منتقل میکنیم.وسومداد و ستد:که به همه ی تراکنش های مالی مربوط به خرید و فروش اطلاق میشه.

بهتره کاربردهای NFCرو با چند مثال در زندگی روزمره بگیم. شما از مکانیزم آژیرهای ضد سرقت در فروشگاه ها مطلع هستید؟ خیلی از فروشگاه ها برای جلوگیری از سرقت کالاهاشون از همین فناوری استفاده میکنند.

تا حالا به گیره های متصل به اجناس فروشگاه ها توجه کردید؟ این گیره ها میتونه حاوی همون برچسب های RFID یا حتیNFCباشه.اگر پول کالایی که توسط مشتری انتخاب شده قبلا توی صندوق پرداخت نشده باشه این برچسب ها اطلاعات عدم خرید کالا توسط مشتری رو به دستگاه های آژیر فروشگاه ارسال میکنند.

شاید شما شاغل باشید و هر روز برای ورود به محل کاری تون از کارت های پرسنلی استفاده میکنید تا به حال به سیستم شناسایی این کارت ها دقت کردید ؟ برای شناسایی این کارت ها، معمولا باید اونها رو در فاصله ی چند سانتیمتری از دستگاه قرار داد . بعد از اینکه دستگاه اطلاعات هویتی صاحب کارت رو شناسایی کرد لحظه ی ورود و یا خروج در حافظه ی دستگاه ثبت میشه.معمولا این کارت ها هم میتونند از فناوری nfc استفاده میکنند.

اما سایر کاربردها چی میتونه باشه؟به طور کلی، از طریق این فناوری میشه هویت یک شخص یا جسم رو تشخیص داد!

حتی اگهی های استخدام هم میتونن مجهز به این سیستم باشن، کافیه متقاضی، گوشی تلفن خودش رو نزدیک اگهی استخدام ببره تا اطلاعاتش روی میکرو چیپ آگهی ثبت بشه، حالا کارفرما میتونه با توجه به اطلاعاتی که از افراد متقاضی به دست آورده، کارمند مورد نظر خودش رو انتخاب و با اون تماس بگیره.

یکی از کاربردهای این فناوری میتونه استفاده به عنوان کارت گارانتی باشه، با نصب برچسب های NFC میشه به راحتی زمان خرید و اطلاعات مشتری رو روی وسایل ثبت کردو مشتری میتونه با نزدیک کردن تلفن همراه خودش اطلاعات رو روی گوشی ببینه.

خوندن بروشور کالاهای مجهز به برچسب های NFC، باز و بسته کردن قفل ها فقط برای افراد مجاز ، ارسال کارت ویزیت و موارد اینچنین، میتونن همگی از کاربردهای این پروتکل باشن.ولی یکی از بحث های چالش برانگیز استفاده از این فناوری، زمانیکه صحبت از تراکنش های مالی میشه.

میتونیم به راحتی اطلاعات حساب بانکی رو به دستگاه همراهی که مجهز به NFC هست، منتقل کرد دیگه بعد از اون نیازی به کارتهای عابر بانکی نیست، کافیه که دستگاهتون رو که میتونه تلفن همراه، تبلت، دستگاه MP3 Playerویا حتی ساعت مچیتون باشه رو به NFC reader فروشگاه نزدیک کنید تا تراکنش های مالی، بعد از تشخیص هویت و اطلاعات بانکی مشتری ،با مجوز خریدار ،به راحتی صورت بگیره.

فناوری NFC

فناوری NFC

ولی چرا چالش بر انگیزه؟خوبهرجا که صحبت از مباحث مالی باشه، انگیزه ی افراد سودجو هم برای سو استفاده بالاتر میره! اینجاست که لازم میشه تا معایب و نقاط ضعف این فناوری بیشتر و دقیق تر بررسی بشه.یکی از بزرگترین اشکالاتی که میتونه برای این فناوری ایجاد بشه sniff(اسنیف) یا شنود غیر مجازه. یعنی افرادی بدون مجوز به اطلاعاتی که بین دو دستگاه رد و بدل میشه، دسترسی پیدا کنند و از اون بدتر میتونه،امکان تغییر این اطلاعات و ارسال اطلاعات ناسالم به گیرنده باشه.ولی اشکال دیگه ای که به راحتی ایجاد میشه تخریب و از بین بردن کامل سیگنالهای ارتباطیه این پروتکله. NFC forum اسم یهمجمعیه که توسعه این پروتکل و وضع استاندارهای اون رو به عهده داره.

و اما پاسخ این مجمع در مقابل نقاط ضعف این فناوری تا به امروز چی بوده؟

اعضای این مجمع معتقدند که حفظ امنیت در استفاده از این پروتکل، به عهده ی فردیه که از اون استفاده میکنه. ولی شاید بهتر این بود که از ابتدا، استفاده از استاندارد های انتقال اطلاعات، روی این پروتکل اعمال میشد و اطلاعات از کانال امنی منتقل میشدند.

در حال حاضر چنانچه از این فناوری در تراکنش های مالی استفاده بشه رمز گذاری باید از طرف بانک مقصد روی اطلاعات کارت NFC و تجهیزات دیجیتالیه مجهز به  NFC ی کاربر قرار گرفته باشه ، ولی چنانچه بانک ها این رمز نگاری رو روی اطلاعات مشتریان خودشون قرار نداده باشند به راحتی اطلاعات بانکی افراد مورد سودجویی قرار میگیرهو تازه باز هم باید امیدوار بود تا فروشندگان هم، از ارسال اطلاعات بصورت رمز شده استفاده کنند.خوب شاید بهتر بود این مجمع استاندارد رمز نگاری SSL رو از ابتدا خودش روی این پروتکل اعمال میکرد.

ولی درعین حال اعضای این مجمع اعلام میکنند که برد انتقال اطلاعات از طریق  NFC رو در حد چند سانتی متر کاهش داده اند. و معتقدند که کاهش فاصله در انتقال اطلاعات به کمتر از ۱۰ سانتی متر یک تمهید در برابر شنودهای غیرمجاز محسوب میشه.در حالی که با تجهیزات پیشرفته و تقویت کننده، امکان شنود برای افراد غیر مجاز در فاصله های دورتر هم امکان پذیره.

ولی در عین حال با توجه به معایب و محاسن این تکنولوژی، باید به این نکته اشاره کنیم که اغلب فروشنده ها تمایل زیادی دارند تا مشتریانشون از این تکنولوژی برای پرداخت های خودشون استفاده کنند.چرا که از این طریق میشه یه سری اطلاعات تبلیغاتی رو برای مشتری ارسال کرد و در عین حال سلایق خرید مشتری هم به راحتی ثبت میشه.

ولی دنیای دیجیتال آینده تا چه اندازه از این فناوری استقبال میکنه؟

هر روز شاهد گجت ها و ابزارهایی هستیم که از فناوری NFCبهره میبرند. به عنوان مثال شرکتی،ماوس کنترل از راه دوری رو با استفاده از این فناوری طراحی کرده به نحوی که برای معرفی ماوس به کامپیوتر تنها کافیه اون روروی کامپیوتر مجهز به nfc قرار بدید تا بلافاصله ماوس توسط کامپیوتر شناسایی بشه.

در همین رابطه پریزهای برقی مجهز به همین فناوری طراحی شده به نحوی که اگر شما بیرون از خانه مشغول شارژ دستگاه دیجیتالی خودتون باشید، هزینه ی استفاده از برق از حساب شما کسر میشه. روش کار هم چندان پیچیده نیست این پریز های با استفاده از nfcبه اطلاعات حساب بانکی مصرف کننده برق متصل شده و بنا به میزان استفاده ی کاربر، هزینه از حساب بانکی مشتری کسر میشه.

فناوری NFCتوی دنیای پرینترها هم نفوذ کرده، یک شرکت کره ای با پشتیبانی از همین فناوری تونستهپرینتر جیبی ای رو طراحی کنه.

به نحوی که کافیست عکس مورد نظر خودتان را بر روی گوشی تلفن همراه  خود انتخاب کنید و بعد از نزدیک کردن گوشی به پرینتر به آسانی  یک نسخه کاغذی از تصویر مورد نظرتان را میتوانید از پرینتر دریافت کنید.

با توجه به معایب و مزایایی که این تکنولوژی به همراه داره خیلی ها معتقدند که این پروتکل به شکل فعلی نمیتواند موفق باشد و تغییر در اون لازم و ضروری می باشد، ولی عده ای همچنان از طرفداران این تکنولوژی هستند و معایب اون را چندان پر اهمیت نمیدونند. و در حد قابل قبولی کامل می دانند.

 

خرید سرور DL 380 G8 G9 HP


خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380خرید سرور DL 380G8 -فروش سرور DL 380 G9-فروش سرور DL 380-قیمت سرور DL 380 -اموزش سرور DL 380DL 380

اطلاعات درایو ویندوز را به SSD انتقال دهیم؟

اطلاعات درایو ویندوز را به SSD انتقال دهیم؟

راه حل این کار ساده است و کاربران ویندوز می‌توانند با تعداد محدودی قطعه‌ی سخت‌افزاری و برنامه‌ی نرم‌افزاری از HDD به SSD مهاجرت کنند. کل این عملیات تنها ۱۵ دقیقه طول می‌کشد و پس از آن چند ساعت انتظار لازم است تا این پیاده‌سازی انجام شود.

موارد مورد نیاز برای مهاجرت از HDD به SSD

برای این مهاجرت نیاز به اجزای زیر است:

  •  یک درایو حالت جامد SSD که حداقل ۳۲ گیگابایت فضای ذخیره سازی داشته باشد. البته بیشتر توصیه می‌شود که ظرفیت آن ۶۴ گیگابایت یا بیشتر باشد.
  • استفاده از یک درایو پشتیبان که می‌تواند هارد اکسترنالی با ظرفیت بیشتر از HDD میزبان باشد.
  •  استفاده از نرم‌افزار Macrium Reflect Free Edition (لینک دانلود نرم‌افزار)
  • یک فلش یو‌اس‌بی فرمت شده یا یک سی دی یا دی‌وی‌دی خام.

چه نوعی از SSD را باید خریداری کنید؟

در حال حاضر SSD درایوهای ساتا (SATA)، M2 و مینی- پی‌سی‌آی  (Mini-PCIe) از انواع SSD رایج در بازار هستند. در وهله‌ی اول انتخاب نوع آن‌ها ممکن است گیج‌کننده به نظر بیاید. اما تقریبا اکثر لپ‌تاپ‌ها با استاندارد ساتا سازگاری دارند. در مورد اولترابوک‌ها استاندارد M2 قابل قبول است و تعداد محدودی از نوت بوک‌های قدیمی هم با مینی- پی‌سی‌آی هماهنگ هستند. احتمالا لپ تاپ شما در بیشتر قسمت‌ها از یک اتصال ساتا استفاده می‌کند.

 

درایوهای ساتا در تمام لپ تاپ‌ها عرضی به اندازه‌ی ۲.۵ اینچ دارند و ضخامت آن‌ها بین ۷ تا ۹ میلی‌متر متغیر است. نکته‌ای که در ادامه لازم است بدانید این که تمام SSD‌های ۷ میلی‌متری با اتصال ساتا در لپ‌تاپ سازگار هستند. اما اتصال SSD با اندازه‌ی ۹ میلی‌متر تنها می‌تواند به دستگاهی متصل شود که اتصال آن هم ۹ میلی‌متری باشد.

گام اول: نصب Macrium Reflect

در مهاجرت به SSD با سه بخش مختلف نرم‌افزاری سر و کار داریم؛ نخست برنامه‌ای که یک نسخه‌ی پشتیبان از اطلاعات فعلی را تهیه کند. دوم برنامه‌ای که حجم این اطلاعات را کاهش دهد و در نهایت برنامه‌ای که اطلاعات کپی شده را به SSD انتقال دهد. برنامه‌ی Macrium Reflect می‌تواند هر سه عملیات را با هم انجام دهد. این برنامه با ایجاد یک نسخه‌ی پشتیبان از ‌هارد میزبان، حجم اطلاعات را کاهش داده و سپس آن‌ها را به SSD انتقال می‌دهد. پس اولین کار نصب این نرم‌افزار است.

روند نصب این نرم‌افزار ساده و راحت است. پس از دانلود برنامه، روی فایل RsflectDL.exe دو بار کلیک می‌کنیم. فایل در حال اجرا، Macrium Reflect را دانلود و سپس نصب می‌کند. روی گزینه‌های Next پشت سر هم کلیک کنید و شرایط مجوز نرم‌افزار را Accept کنید.

برای نصب و دانلود فایل‌های Windows PE گزینه‌های پیش‌فرض را انتخاب کنید. فرآیند دانلود ۵۳۰ مگابایت داده حدود ۱۰ دقیقه طول می‌کشید. پس از آن Reflect یک نسخه از Windows PE قابل بوت را ایجاد می‌کند.

1

در این مرحله باید یک فلش یو‌اس‌بی (یا دی‌وی‌دی خام) و یک هارد اکسترنال را به سیستم متصل کنید. سپس Macrium Reflect اجرا می‌شود.

در اینجا مطمئن شوید که نسخه‌ی قابل بوت در مسیر فلش یا دی‌وی‌دی ذخیره می‌شود. به خاطر داشته باشید که اطلاعات بازیابی شده تنها روی سیستمی که در آن ذخیره شده‌اند قابل اجرا هستند.

2

پس از ایجاد برنامه‌ی قابل بوت، لازم است فایل‌های اضافی خود را حذف کنید. چرا که فضای SSD اغلب کمتر از HDD است. ویندوز ۱۰ به تنهایی ۱۶ گیگابایت فضا در نسخه ۳۲ بیتی و ۲۰ گیگابایت فضا در نسخه‌ی ۶۴ بیتی اشغال می‌کند.

گام دوم: حذف فایل‌های غیر ضروری

در این مرحله نیاز دارید تا اندازه‌ی فایل‌های موجود در HDD را کاهش دهید تا در فضای SSD جا شوند. برای مثال اگر فضای SSD شما ۱۲۰ گیگابایت است و HHD سیستم شما ۲۰۰ گیگابایت فضا دارد، باید ۸۰ گیگابایت از اطلاعات خود را پاک کنید- حتی توصیه می‌شود که داده‌های بیشتری را حذف کنید.

روش‌های زیادی برای کاهش حجم اطلاعات وجود دارد. استفاده از نرم‌افزارهایی مانند WinDirStat و CCleaner و دیگر برنامه‌های مشابه می‌تواند در این رابطه مفید باشد. البته استفاده از نرم‌افزار WinDirStat و ابزار Disk Cleanup ویندوز بیشتر توصیه می‌شود. WinDirStat کمک می‌کند تا فایل‌های زاید از روی درایو هارد شما پاک شود و در کنار آن Disk Cleanup فایل‌هایی را که توسط WinDirStat حذف نشده‌اند را پاک می‌کند.

WinDirStat

روش کار WinDirStat این گونه است که اطلاعات ذخیره شده در درایو را به صورت شماتیک‌وار نشان می‌دهد. به عنوان مثال اطلاعات ذخیره شده نمایشی به این شکل خواهند داشت:

3

مربع‌ها و مستطیل‌های رنگی نشان دهنده‌ی بلوک داده‌ها هستند. هر رنگی نوع فایل را نشان می‌دهد. اندازه‌ی بلوک‌ها هم بیان‌گر میزان فضای اشغال شده توسط فایل است. هنگام پاک کردن فایل، کاربران باید احتیاط لازم را به کار برند. برای پاک کردن یک فایل لازم است که روی آن راست کلیک کرده و آن را از منوی زمینه حذف کرد.

Windows Disk Cleanup

Windows Disk Cleanup از مفیدترین ابزارهای موجود برای پاک‌سازی درایو هارد است. این ابزار نه تنها کش‌های مختلف ویندوز را پاک‌سازی می‌کند بلکه بقایای به جا مانده از نصب ویندوزهای قبلی را هم حذف می‌کند.

4

 

حذف بازیابی‌ها

ویندوز مدام در حال ایجاد نسخه‌ی پشتیبان از سیستم عامل است. همین امر باعث می‌شود که حجم قابل توجهی از فضای سیستم اشغال شود. از این رو اگر گزینه‌ی دیگری ندارید، سعی کنید تا برخی از این برنامه‌های مربوط به بازیابی را حذف کنید.

اجرای دستور Compact OS

این مرحله کاملا اختیاری است. مایکروسافت در ویندوز ۱۰ قابلیتی به نام Compact OS را معرفی کرده است تا بتواند در فضای ذخیره‌سازی صرفه جویی به عمل آورد. این دستور به طور متوسط حجم سیستم عامل را بین ۱.۶ تا ۲.۶ گیگابایت (یا بیشتر) کاهش می‌دهد. ضمن این که به کاربران اجازه می‌دهد تا حداقل ۴ گیگابایت از فضای درایو را بازیابی کنند. برای اجرای این دستور، عبارت “cmd” را در Windows Search تایپ کنید. سپس روی Command Prompt راست کلیک کنید.

 

از دستور زیر برای فعال‌سازی Compact OS استفاده کنید:

 

 چگونه ویندوز را از HDD به SSD انتقال دهیم؟

چگونه ویندوز را از HDD به SSD انتقال دهیم؟

به این ترتیب این دستور اجرا خواهد شد.

گام سوم: ایجاد پشتیبان با استفاده از Macrium Reflect

حالا نوبت آن رسیده است که یک نسخه‌ی پشتیبان از ویندوز تهیه کنید. همزمان که هارد اکسترنال را به سیستم وصل کرده‌اید، برنامه‌ی Macrium Reflect را باز کرده و از پنجره‌ی مرکزی گزینه‌ی Create a backup را انتخاب کنید. سپس روی گزینه‌ی Image this disk کلیک کنید.

 چگونه ویندوز را از HDD به SSD انتقال دهیم؟

چگونه ویندوز را از HDD به SSD انتقال دهیم؟

ابتدا مطمئن شوید که پارتیشین مورد نظر را با گذاشتن علامت چک انتخاب کرده‎اید. هر پارتیشن بخشی از داده‌ها را شامل می‌شود و هر باکس پارتیشن موجود در درایو هارد را نمایش می‌دهد. تمام پارتیشن‌ها به طور پیش‌فرض در حالت انتخاب قرار دارند. چنانچه نمی‌خواهید یکی یا بعضی از پارتیشن‌های انتخاب شده در این فهرست باشند، علامت چک کنار آن را بردارید.

در مرحله‌ی دوم Folder را انتخاب کنید. البته این گزینه هم به طور پیش‌فرض انتخاب شده است.

در مرحله‌ی ۳ روی سه نقطه‌ی کنار Folder کلیک کنید و در آنجا مسیر هارد اکسترنال خود را قرار دهید.

در نهایت در مرحله‌ی ۴، Finish را انتخاب کنید تا فرآیند ایجاد نسخه‌ی پشتیبان، آغاز به کار کند.

8

چگونه ویندوز را از HDD به SSD انتقال دهیم؟

گام چهارم: برداشتن HDD و جای گذاری SSD

برای بسیاری از کاربران این مرحله، ساده‌ترین قسمت کار است. فقط کافی است HHD را بردارید و SSD را جایگزین آن کنید.

 چگونه ویندوز را از HDD به SSD انتقال دهیم؟

چگونه ویندوز را از HDD به SSD انتقال دهیم؟

گام پنجم: بازیابی اطلاعات نسخه‌ی پشتیبان

حالا سیستم خود را ری‌استارت کرده و آن را از روی فلش یا دی‌وی‌دی بوت کنید. در ادامه به جای این که ویندوز بالا بیاید، نرم‌افزار Macrium Reflect فایل image بازیابی شده را اجرا می‌کند. تب Restore را از بالا انتخاب کرده و از طریق  Browse for an image file to restore فایل image را پیدا کنید. سپس درایو اکسترنال را انتخاب کرده و نسخه‌ی پشتیبان را راه‌اندازی کنید.

 چگونه ویندوز را از HDD به SSD انتقال دهیم؟

چگونه ویندوز را از HDD به SSD انتقال دهیم؟

حالا برای کپی اطلاعات روی SSD هر پارتیشن را انتخاب کرده و با دراگ کردن به SSD انتقال دهید. در کمتر از یک ساعت یک نسخه‌ی کامل از ویندوز روی SSD نصب شده است. نگران فایل‌های pagefile.sys و hiberfil.sys هم نباشید. چرا که Macrium Reflect به صورت خودکار هر دو نوع فایل را حذف می‌کند و پارتیشن‌ها را با فضای موجود در SSD هماهنگ می‌کند.

اینتل تراشه ۷۲ هسته ای زئون فی

اینتل تراشه ۷۲ هسته ای زئون فی را برای رقابت با پردازنده های گرافیکی انویدیا در حوزه یادگیری ماشین رونمایی کرد

اخیرا انویدیا پردازنده‌های گرافیکی قدرتمند خود نظیر تسلا پی ۱۰۰ را به منظور استفاده در کاربردهایی نظیر یادگیری ماشین، رونمایی کرده که بسیار مورد استقبال واقع شده است. اما اینتل به عنوان بزرگ‌ترین تولیدکننده‌های پردازنده‌ بیکار ننشسته و تراشه‌ی ۷۲ هسته‌ای زئون فی ۷۲۹۰ را برای استفاده از در حوزه‌ی یادگیری ماشین رونمایی کرده است.

 

اینتل تراشه‌ی ۷۲ هسته‌ای زئون فی ۷۲۹۰ خود را با هدف استفاده در کاربردهایی نظیر یادگیری ماشین رونمایی کرده است. این کمپانی مدعی است که زئون فی قادر است تا قدرتی برابر با پردازنده‌های گرافیکی انویدیا را در حوزه‌ی یادگیری ماشین به کاربران ارائه کند، در حالی که زئون فی در شماری از حوزه‌ها نیز دست بالا را در اختیار دارد.

قرار بود زئون فی به همراه Larrabee، پردازنده‌ی گرافیکی اصلی اینتل راهی بازار شود، اما این پروژه پس از چندین بار به تعویق افتادن، بالاخره در سال ۲۰۰۹ میلادی به صورت کامل کنار گذاشته شد، اما اینتل ایده‌ی توسعه‌ی زئون فی را کنار نگذاشت.

اینتل تراشه ۷۲ هسته ای زئون فی را برای رقابت با پردازنده های گرافیکی انویدیا در حوزه یادگیری ماشین رونمایی کرد

همانطور که اشاره کردیم، زئون فی با هدف مقابله با محصولات انویدیا راهی بازار شده که اخیر سر و صدای بسیاری را در حوزه‌هایی نظیر بازی و یادگیری ماشین، بله راه انداخته است.

البته باید به این موضوع اشاره کرد که زئون فی تاکنون به عنوان یکی از بهترین گزینه‌ها برای توسعه‌ی ابررایانه‌ها و سرورها در موسسات آموزشی و کمپانی‌های متعدد مورد استفاده قرار گرفته است، اما اینتل با معرفی نسل جدید این تراشه که از وجود ۷۲ هسته‌ی پردازشی بهره می‌برد، درصدد رقابت با پردازنده‌های گرافیکی انویدیا در حوزه‌ی یادگیری ماشین است.

تراشه‌ی ۷۲ هسته‌ای زئون فی ۷۲۹۰ را باید سریع‌ترین تراشه‌‌ی این کمپانی در تاریخ خواند. براساس اطلاعات ارائه شده این محصول از سپتامبر سال جاری میلادی با برچسب قیمت ۶,۲۹۴ دلاری راهی بازار خواهد شد که علاوه بر سریع‌ترین، لقب گران‌ترین محصول اینتل را نیز به خود اختصاص داده است. اینتل در کنار این محصول، سه نسخه‌ی دیگر از زئون فی را نیز رونمایی کرده که شامل نسخه‌ی ۶۴ و ۶۸ هسته‌ای می‌شود.

تراشه‌های زئون فی در برخی از سریع‌ترین رایانه‌های جهان مورد استفاده قرار می‌گیرند. اینتل شماری از تراشه‌های نسل جدید خود را از ماه‌ها پیش راهی بازار کرده است، اما این کمپانی مشخصات فنی و قیمت محصولات خود را برای اولین بار در جریان کنفرانس بین المللی ابررایانه‌ها که در فرانکفورت آلمان برگزار می‌شود، اعلام کرد.

همانطور که در تصویر نیز مشاهده می‌کنید، این تراشه با ظاهری شبیه به یک کارت گرافیک تولید شده است. کاربران می‌توانند از این تراشه به عنوان پردازنده‌ی اصلی سیستم استفاده کرده یا آن را در کنار سایر پردازنده‌های موجود قرار دهند. برای مثال در ابررایانه‌ها و سرور‌ها این تراشه به عنوان یک پردازنده‌ی کمکی برای پردازنده‌ی اصلی که زئون E5 است، مورد استفاده قرار خواهد گرفت.

البته باید به این موضوع اشاره کرد که امکان استفاده از این تراشه‌ در رایانه‌های معمولی نیز وجود دارد، اما نباید انتظار داشت تا رایانه‌ی مجهز به این تراشه توانایی اجرای آخرین بازی‌های منتشر شده را داشته باشد، چراکه زئون فی جدید با بهره‌گیری از هسته‌های اتم تقویت شده برای انجام محاسبات و پردازش‌های علمی توسعه یافته است.

تراشه‌ی زئون فی جدید از حافظه‌ی سه بعدی موسوم به Integrated Stacked Memory با ظرفیت ۱۶ گیگابایت بهره برده و می‌تواند از حافظه‌ی رم DDR4 با ظرفیت بیش از ۳۸۴ گیگابایت نیز پشتیبانی کند. انرژی مصرف شده توسط این پردازنده ۲۴۵ وات است و فرکانس هر یک ازهسته‌ها روی ۱.۵ گیگاهرتز تنظیم شده است.

 اینتل تراشه‌ی ۷۲ هسته‌ای زئون فی ۷۲۹۰ خود را با هدف استفاده در کاربردهایی نظیر یادگیری ماشین رونمایی کرده است. این کمپانی مدعی است که زئون فی قادر است تا قدرتی برابر با پردازنده‌های گرافیکی انویدیا را در حوزه‌ی یادگیری ماشین به کاربران ارائه کند، در حالی که زئون فی در شماری از حوزه‌ها نیز دست بالا را در اختیار دارد. قرار بود زئون فی به همراه Larrabee، پردازنده‌ی گرافیکی اصلی اینتل راهی بازار شود، اما این پروژه پس از چندین بار به تعویق افتادن، بالاخره در سال ۲۰۰۹ میلادی به صورت کامل کنار گذاشته شد، اما اینتل ایده‌ی توسعه‌ی زئون فی را کنار نگذاشت. همانطور که اشاره کردیم، زئون فی با هدف مقابله با محصولات انویدیا راهی بازار شده که اخیر سر و صدای بسیاری را در حوزه‌هایی نظیر بازی و یادگیری ماشین، بله راه انداخته است. البته باید به این موضوع اشاره کرد که زئون فی تاکنون به عنوان یکی از بهترین گزینه‌ها برای توسعه‌ی ابررایانه‌ها و سرورها در موسسات آموزشی و کمپانی‌های متعدد مورد استفاده قرار گرفته است، اما اینتل با معرفی نسل جدید این تراشه که از وجود ۷۲ هسته‌ی پردازشی بهره می‌برد، درصدد رقابت با پردازنده‌های گرافیکی انویدیا در حوزه‌ی یادگیری ماشین است. تراشه‌ی ۷۲ هسته‌ای زئون فی 7290 را باید سریع‌ترین تراشه‌‌ی این کمپانی در تاریخ خواند. براساس اطلاعات ارائه شده این محصول از سپتامبر سال جاری میلادی با برچسب قیمت ۶,۲۹۴ دلاری راهی بازار خواهد شد که علاوه بر سریع‌ترین، لقب گران‌ترین محصول اینتل را نیز به خود اختصاص داده است. اینتل در کنار این محصول، سه نسخه‌ی دیگر از زئون فی را نیز رونمایی کرده که شامل نسخه‌ی ۶۴ و ۶۸ هسته‌ای می‌شود. تراشه‌های زئون فی در برخی از سریع‌ترین رایانه‌های جهان مورد استفاده قرار می‌گیرند. اینتل شماری از تراشه‌های نسل جدید خود را از ماه‌ها پیش راهی بازار کرده است، اما این کمپانی مشخصات فنی و قیمت محصولات خود را برای اولین بار در جریان کنفرانس بین المللی ابررایانه‌ها که در فرانکفورت آلمان برگزار می‌شود، اعلام کرد. همانطور که در تصویر نیز مشاهده می‌کنید، این تراشه با ظاهری شبیه به یک کارت گرافیک تولید شده است. کاربران می‌توانند از این تراشه به عنوان پردازنده‌ی اصلی سیستم استفاده کرده یا آن را در کنار سایر پردازنده‌های موجود قرار دهند. برای مثال در ابررایانه‌ها و سرور‌ها این تراشه به عنوان یک پردازنده‌ی کمکی برای پردازنده‌ی اصلی که زئون E5 است، مورد استفاده قرار خواهد گرفت. البته باید به این موضوع اشاره کرد که امکان استفاده از این تراشه‌ در رایانه‌های معمولی نیز وجود دارد، اما نباید انتظار داشت تا رایانه‌ی مجهز به این تراشه توانایی اجرای آخرین بازی‌های منتشر شده را داشته باشد، چراکه زئون فی جدید با بهره‌گیری از هسته‌های اتم تقویت شده برای انجام محاسبات و پردازش‌های علمی توسعه یافته است. تراشه‌ی زئون فی جدید از حافظه‌ی سه بعدی موسوم به Integrated Stacked Memory با ظرفیت ۱۶ گیگابایت بهره برده و می‌تواند از حافظه‌ی رم DDR4 با ظرفیت بیش از ۳۸۴ گیگابایت نیز پشتیبانی کند. انرژی مصرف شده توسط این پردازنده ۲۴۵ وات است و فرکانس هر یک ازهسته‌ها روی ۱.۵ گیگاهرتز تنظیم شده است. در کنار استفاده از زئون فی جدید در سرور‌ها و ابررایانه‌ها، کاربرد دیگری نیز برای این تراشه وجود دارد که شامل هوش مصنوعی و یادگیری ماشین است. براساس اطلاعات ارائه شده توسط چارلز ووشپارد، قائم مقام بخش دیتاسنتر در اینتل، نسل‌های بعدی زئون فی قابلیت‌های خود در حوزه‌های مورد نظر را بیش از پیش افزایش خواهند داد. ووشپارد به این موضوع اشاره کرده که پردازنده‌ها در مقایسه با پردازنده‌های گرافیکی در کاربردهایی نظیر یادگیری ماشین و سرور‌ها بسیار سریع‌تر هستند. اینتل تراشه‌ی جدید خود را در حوزه‌ای نظیر یادگیری عمیق نیز مورد آزمایش قرار می‌دهد. این کمپانی علاوه بر انویدیا با پردازنده‌های گرافیکی، حضور رقبای دیگری را با تولید پردازنده‌های مخصوص یادگیری عمیق حس می‌کند که از جمله‌ی آن باید به گوگل اشاره کرد که اخیرا پردازنده‌ی TPU یا همان پردازنده‌ی تنسور را رونمایی کرده است. براساس برنامه‌‌های اینتل، این کمپانی در نظر دارد تا از حوره‌ی تولید تراشه برای رایانه‌ها فاصله گرفته و تراشه‌های جدید خود نظیر زئون فی را با فناوری‌های جدیدی که به آن‌ها دست یافته، پیونددهد. باید دید که رقابت کمپانی‌ها در مسیر توسعه‌ی واحدهای پردازشی مورد استفاده در حوزه‌هایی نظیر یادگیری عمیق، یادگیری ماشین و هوش مصنوعی به کجا ختم خواهد شد؟

ووشپارد به این موضوع اشاره کرده که پردازنده‌ها در مقایسه با پردازنده‌های گرافیکی در کاربردهایی نظیر یادگیری ماشین و سرور‌ها بسیار سریع‌تر هستند.

اینتل تراشه‌ی جدید خود را در حوزه‌ای نظیر یادگیری عمیق نیز مورد آزمایش قرار می‌دهد. این کمپانی علاوه بر انویدیا با پردازنده‌های گرافیکی، حضور رقبای دیگری را با تولید پردازنده‌های مخصوص یادگیری عمیق حس می‌کند که از جمله‌ی آن باید به گوگل اشاره کرد که اخیرا پردازنده‌ی TPU یا همان پردازنده‌ی تنسور را رونمایی کرده است.

براساس برنامه‌‌های اینتل، این کمپانی در نظر دارد تا از حوره‌ی تولید تراشه برای رایانه‌ها فاصله گرفته و تراشه‌های جدید خود نظیر زئون فی را با فناوری‌های جدیدی که به آن‌ها دست یافته، پیونددهد.

باید دید که رقابت کمپانی‌ها در مسیر توسعه‌ی واحدهای پردازشی مورد استفاده در حوزه‌هایی نظیر یادگیری عمیق، یادگیری ماشین و هوش مصنوعی به کجا ختم خواهد شد؟

 

محققان پردازنده هزار هسته‌ای ساختند!

حتما تاکنون نامی از پردازنده‌های ۱۰ یا ۱۲ یا ۱۸ هسته‌ای شنیده‌اید ولی مطمئنا این خبر برایتان تازگی دارد. موسسه تحقیقاتی UC Davis پردازنده‌ای به نام KiloCore توسعه داده است که دربردارنده هزار هسته محاسباتی است و بسیاری از وظایف و کارهای پردازشی را در کمتر از یک ثانیه انجام می‌دهد.

 

36

با این پردازنده می‌توان بسیاری از کارهای محاسباتی مانند رمزنگاری، محاسبات علمی خرد، انکدینگ ویدیوها را به طور موازی و در کمترین زمان ممکن تا کنون انجام داد. کارایی این پردازنده فوق‌العاده و چشم‌گیر است. شما می‌توانید ۱۱۵ میلیارد دستورالعمل را در یک ثانیه انجام دهید ولی فقط ۰.۷ وات مصرف انرژی داشته باشید. یعنی برای راه‌اندازی و اجرای این تراشه فقط به یک باتری قلمی AAA نیاز است. فعلا نباید منتظر تولید انبوه این محصول بود. این پردازنده با آزمایشگاه‌های IBM و در مقیاس ۳۲ نانومتری ساخته شده است در حالی که پردازنده‌های تجاری موجود در بازار از فناوری‌های ۱۴ نانومتری استفاده می‌کنند. بنابراین؛ محققان و توسعه‌دهنده‌گان KiloCore به دنبال روش‌هایی برای کوچک‌تر کردن این واجد محاسباتی هستند. چیزی که از دل این خبر بیرون می‌آید؛ چشم‌انداز سال‌های آینده است و اینکه شما روی دستگاه‌های همراهی مانند موبایل یک پردازنده با این سطح از کارایی داشته باشید و بتوانید چندین کار سنگین را سریع انجام دهید در حالی که مصرف باتری موبایل به کمترین حد ممکن خودش رسیده است.

منبع: www.netco.biz

گوگل پردازنده‌ای ویژه هوش مصنوعی ساخت


امروزه بیش از ۱۰۰ تیم حرفه‌ای در گوگل از یادگیری ماشینی در حوزه‌های مختلف و همچنین بهبود عملکرد برنامه‌های کاربردی محبوب استفاده می‌کنند. Street View، صندوق پستی و جستجوی صوتی همه این برنامه‌ها به لطف یادگیری ماشینی به بهترین شکل عمل می‌کنند. اما در پس زمینه این نرم‌افزارهای محبوب، سخت‌افزارهای گوگل قرار دارند که همانند خورشیدی می‌درخشند. اگر به فعالیت‌های سخت‌افزاری گوگل نگاهی داشته باشیم، به خوبی مشاهده می‌کنیم که این شرکت با ساخت سخت‌افزارهای ویژه مراکز داده‌اش، بیگانه نیست. اما خبر طراحی یک پردازنده خاص، موضوع دیگری است.

این پردازنده خاص منظوره غول اینترنتی، یک واحد پردازش تانسو است که در اصل یک تراشه سفارشی ویژه یادگیری ماشینی است. در حالی که در ظاهر چنین به نظر می‌رسد که این پردازنده با هدف افزایش دقت وظایف هوش مصنوعی طراحی شده است، اما این چنین نیست. گوگل در ساخت این تراشه تمرکزش بر محاسبات خام بوده است. در نتیجه سعی کرده است  مصرف انرژی این تراشه را به حداقل رسانده تا در یادگیری ماشینی عملکرد بهتری داشته باشد. اگر این پردازنده را به لحاظ مصرف انرژی با پردازنده‌های رایج بازار مورد بررسی قرار دهیم، مشاهده می‌کنیم که این پردازنده با همان مصرف انرژی سریع‌تر کار می‌کند.

74

پروژه‌ای که نزدیک به یک سال مستتر بود!

گوگل نزدیک به یک سال پیش در سکوت کامل خبری کار روی پروژه‌ای در ارتباط با شتاب‌دهندگی پیشرفته در برنامه‌های کاربردی را آغاز کرد. پروژه‌ای که بر مبنای یادگیری ماشینی عمل می‌کرد. ماحصل این پروژه گوگل یک واحد پردازشی تانسور TPU بود. یک ASIC سفارشی که به‌طور خاص برای یادگیری ماشینی طراحی شده بود. تراشه‌ای که به بهترین شکل با پروژه یادگیری ماشینی منبع باز TensorFlow یکپارچه شده است. گوگل با استفاده از این تراشه‌‌ که مصرف انرژی آن بهینه‌سازی شده است، بسیاری از کارها را مدیریت کرده و فرآیندهایی همچون بهبود کیفیت نقشه‌ها و افزایش ضریب اعتماد به آلفاگو که برای شرکت در مسابقه Go آماده شده بود را بهبود بخشید. این همان تراشه‌‌ای بود که گوگل در بازی Go برای شکست قهرمان کره‌ای از آن استفاده کرد. تقریبا یک سال است که گوگل از این تراشه‌ها در مراکز داده‌ای خودش استفاده می‌کند.

اما دو نکته جالب توجه در ارتباط با این تراشه‌ها وجود دارد. اول آن‌که معماری این تراشه‌ها به گونه‌ای است که از هر وات مصرفی برای یادگیری ماشینی به صورت بهینه‌سازی شده‌ای استفاده می‌کند. دوم آن‌که گوگل دقت این تراشه‌ها را کمی کاهش داده است. این کاهش دقت باعث شده است تا از تعداد ترانزیستورهای کمتری برای انجام عملیات استفاده شود. این ترکیب به گوگل این توانایی را داده است تا عملیات بیشتری را در هر ثانیه به درون سیلیکون‌ها وارد کرده و از مدل‌های یادگیری ماشینی قدرتمندتری استفاده کرده و این مدل‌ها را بسط دهد. ماحصل این فعالیت‌ها در غالب ارائه نتایج هوشمندانه‌ای که به سرعت در حال رشد هستند به کاربران نشان داده می‌شود.

گوگل در ارتباط با دستاوردهای این شرکت در حوزه محاسبات پیشرفته گفته است: «هدف ما این است که به عنوان رهبری در صنعت یادگیری ماشینی شناخته شویم و نوآوری‌هایی که در این زمینه به وجود می‌آوریم را در اختیار مصرف کنندگان خودمان قرار دهیم. ساخت تراشه‌های TPU که در زیرساخت‌های گوگل مورد استفاده قرار می‌گیرد به ما اجازه می‌دهد تا قدرت گوگل در حوزه نرم‌افزارهایی همچون تانسورفلو و یادگیری ماشینی ابری را همراه با قابلیت‌های شتاب‌بخشی پیشرفته در اختیار توسعه دهندگان خود قرار دهیم. یادگیری ماشینی در حال تغییر این رویکرد است که چگونه توسعه‌دهندگان توانایی ساخت برنامه‌های هوشمندی را دارند که مزایایی را هم برای مصرف کنندگان و هم برای مشتریان به وجود آورد. ما با اشتیاق دوست داریم، آینده‌ای را مشاهده کنیم که این امکانات به بهترین نحو در زندگی مردم وارد شده باشد.»

لازم به توضیح است که شما توانایی خرید این پردازنده‌ها را ندارید، اما به خوبی تاثیرگذاری آن‌را بر هوش مصنوعی و از همه مهم‌تر بر سرویس‌های گوگل مشاهده خواهید کرد.

===============================www.netco.biz