سرور DL380 پرفروش ترین سرور در جهان است که در آینده نیز بهتر از این خواهد شد.سرور HP DL380 GEN9 آخرین عملکرد و توسعه پذیری را در یک سرور با ۲ cpu و اشغال ۲ یونیت به شما ارائه می دهد. قابلیت اطمینان بالا ، سرویس دهی بالا ، توانایی مداوم ، با حمایت از یک گارانتی جامع ، این سرور را برای هر محیطی ایده آل می کند و یک دیتا سنتر استاندارد را گسترش می دهد.
این سرور برای کاهش هزینه ها و همچنین پایین آوردن پیچیدگی ها از cpu های Intel v3 که ۷۰درصد کارایی پردازش را افزوده است و بوسیله تکنولوژی رم های اچ پی DDR4 ماکزیمم ۴/۱ ترابایت رم با ۱۴درصد کارایی بالاتر ارائه می دهد. علاوه بر این پورت SAS در این سرور پهنای باند ۱۲گیگ دارد همچنین ۴۰ گیگ NIC دارد تا طیف گسترده ای از گزینه های گرافیکی و محاسباتی را پوشش دهد.
سرور DL380 G9 در هر مجموعه ی کامپیوتری به صورت اتوماتیک ضروری ترین وظایف مدیریت چرخه عمر سرور را انجام می دهد که شامل : استقرار، بروز رسانی، نظارت، و حفظ با سهولت می باشد. این سرور با اعتماد می تواند همه چیز از جمله بیشتر برنامه های پایه تا ماموریت های حیاتی را اجرا کند. طراحی انعطاف پذیر این سرور باعث می شود سرمایه گذاری شما اثباتی برای آینده شما باشد تا بتوانید نیازهای کسب و کار خود را بوسیله آن گسترش دهید. سرور HP DL380 G9 یک شاسی قابل انعطاف می باشد که توانایی نصب ۸ الی ۲۴ عدد هارد SFF را دارد . همچنین از ۴ الی ۱۲ عدد هارد LFF می توان به راحتی بر روی آن نصب کرد. کمپانی HP یک قابلیت فوق العاده برای این سرور درنظر گرفته که آن نصب دوعدد هارد SFF درپشت این سرور می باشد.
طراحی مجدد آرایه ها در این سرور بسیار انعطاف پذیر می باشد. کنترلر HBA SAS جدید برروی این سرور به شما پهنای باند ۱۲Gb/s را می دهد. همچنین چیپ ست کنترلر B140i برروی مادربورد قابلیت SATA Raid را برای شما فراهم می کند. انتخاب یک کارت شبکه با ۴ پورت ۱Gb/s و کارت های جدید که تا ۴۰Gb/s پهنای باند در محیط شبکه را برای شما فراهم می نماید ، از جمله خصوصیات جدید این سرور می باشد.
System features | ||
Intel® Xeon® E5-2600 v3 product family | Processor family | |
۱ or 2 | Number of processors | |
۱۸ or 16 or 14 or 12 or 10 or 8 or 6 or 4 | Processor core available | |
۲U | Form factor (fully configured) | |
(۲) Flex Slot | Power supply type | |
(۶) Maximum – For detail descriptions reference the QuickSpec | Expansion slots | |
Memory, maximum1.5TB | Memory | |
۲۴ DIMM slots | Memory slots | |
DDR4 SmartMemory | Memory type | |
Storage | ||
((۴) or (12)) LFF SAS/SATA/SSD((8) or (16) or (24)) SFF SAS/SATA/SSD(۲) SFF Rear drive optional or (۳) LFF Rear drive optional Hot plug, depending on model | Drive description | |
Controller Cards | ||
۱Gb 331i Ethernet Adapter 4 Ports per controller and/or | Network controller | |
Depending on model | Optional FlexibleLOM | |
(۱) Dynamic Smart Array B140i and/or (۱) Smart Array P440 (۱) Smart Array P840 Depending on model |
مجازی سازی میتواند موجب کاهش هزینهها، تسهیل امور مدیریتی، و توانمند ساختن یک سازمان در بهره وری هر چه بیشتر از سرمایههای فنی خود شود. نکاتی که در ادامه میخوانید به شما کمک میکند تا از این منافع بهره مند شوید.
مجازی سازی برای تمامی شرکتها در هر اندازهای که باشند به یک ضرورت تبدیل شده است. از شرکت های بسیار کوچک تا شرکت های بزرگ خدمات تولید, مجازی سازی کمک میکند تا از سختافزارهای خود بهره وری بیشتری کنند و این سخت افزارها برای شرکت های خود نسبت به سابق کار بیشتری انجام دهند. این فناوری برای بسیاری از شرکتها کاملاً جدید، اما برای بقیه کهنه و قدیمی شده است. صرف نظر از این که شما در چه موقعیتی هستید، مجازی سازی یک فناوری گسترده با اجزای متحرک فراوان است. داشتن دانش انجام کاری به بهترین وجه که متناسب با نیازهایتان باشد باید هدف اصلی شما و تیم IT شرکتتان باشد. با در نظر گرفتن این ایده، در ادامه به بررسی ۱۰ نکته راجع به مجازی سازی میپردازیم که نباید توسط مدیران شبکه نادیده گرفته شوند. البته منظور ما آن دسته از مدیران شبکه است که تازه این فناوری را مد نظر قرار دادهاند (یا قبلاً راجع به آن بررسی دقیقی کردهاند).
۱: سخت افزار را برای ظرفیت مجازی برنامه ریزی کنید
هنگامی که در مراحل اولیه برنامه ریزی محیط مجازی خود هستید، اشتباهاً سخت افزاری را خریداری نکنید که توان مدیریت باری که مجازی سازی روی آن قرار می دهد را ندارد. در این زمینه شما نیاز به تعمق بیش از حد معمول دارید. به یاد داشته باشید که سرور شما ممکن است میزبانی ماشینهای مجازی متعددی را بر عهده گیرد، بنابراین باید قدرت اولیه و همچنین فضای لازم برای رشد را داشته باشد. در نهایت شما به سرور میزبانی نیاز دارید که مختص ماشینهای مجازی باشد. ظرفیت را دو برابر اندازه گیری کنید، با اعمال هر ماشین مجازی یک ظرفیت کم کنید. تصور نکنید که یک ماشین مجازی فضای کمی را بر روی سرور اشغال میکند. و همچنین فرض را بر این نگذارید که سرور شما تنها میزبان یک ماشین مجازی است.
۲: طول عمر هر ماشین مجازی را پیگیری کنید
من از برخی مدیران شبکه شنیدهام که یک ماشین مجازی را رها کرده و با کمترین و حتی بدون نظارت گذاشتهاند که کار خود را بکند. شما باید تمامی ماشینهای مجازی خود را از ابتدا تا به انتها پیگیری کنید. همچنین همیشه باید راجع به این که ماشینهای مجازی تا چه اندازه گسترش یافته اند، وضعیت کنونی آنها چیست، چه مقدار ترافیک را به خود اختصاص دادهاند، و هر نوع اطلاعات دیگری که به دست میآورید، مطلع باشید. موضوع بسیار وسوسه انگیز این است که بگویند: ماشینهای مجازی را “تنظیم کن و فراموش کن”، اما این یک اشتباه فاحش است و میتواند شما را در دنیایی از مشکلات فرو ببرد. نرم افزار مانیتورینگ میزان استفاده از پهنای باند توسط هر یک از ماشین های مجازی را به شما نمایش می دهد و شما به آسانی ماشین هایی که بیشترین ترافیک شبکه را دارند شناسایی و مدیریت خواهید کرد.
۳: هر چیزی را مجازی سازی نکنید
هر چیزی را نباید مجازی سازی کرد. منظور سرور FTP است که تنها ترافیک داخلی چندین کاربر را دریافت میکند؟ احتمالاً خیر. پرینت سرور؟ نه احتمالاً. شما نیاز به ایجاد یک برنامه مشخص و دلایل قاطع برای هر چیزی که مجازی سازی میشود، دارید. اولین چیزی که باید از خودتان بپرسید این است که “چرا لازم است سرور X را مجازی سازی کنیم؟ وقتی توانستید به این پرسش با اندکی اطمینان پاسخ دهید، همین استدلال را برای هر سروری که فکر میکنید از مجازی سازی سود میبرد، به کار ببرید.
۴: ترافیک مجازی را همچون ترافیک غیر مجازی نظارت کنید
مطمئن شوید که ترافیک مجازی را همچون ترافیک غیر مجازی خود نظارت میکنید. خیال خود را با این تفکر که میزبانهای مجازی ایمنترند صرفاً به این دلیل که به صورت آنی میتوانید وضعیت آنها را با یک هشدار کنترل نمایید، راحت نکنید. این یک حس کاذب از ایمنی است و نباید به عنوان جایگزینی برای امنیت در نظر گرفته شود. اما نظارت فراتر از امنیت میرود. شما باید از ترافیک داخلی و خارجی ماشینهای مجازی خود اطلاع داشته باشید. پس از یک دوره زمانی معین، شما میفهمید که آیا لازم است به ماشینهای خاصی منابع بیشتری داده شود و این که آیا به سایر ماشینهای مجازی میتوان به صورت مستقل سرویس داد.
۵: منابع مجازی را به صورت رایگان نبخشید
من بارها دیدهام: ماشینهای مجازی که به نظر میرسند فضای کمی اشغال می کنند به راحتی در یک حوزه به صورت “رایگان” در اختیارگذاشته میشوند. این کار را نکنید. حتی یک سرور را به صورت رایگان از حالت مستقل به حالت مجازی شده تغییر ندهید. مشتریان باید منافعی که از سرور مجازی شده عاید آنها می شود را درک کنند. مجازی سازی همراه با تمام مزایایی که با خود به ارمغان میآورد، هزینه ای دارد. علاوه بر این، فناوری مورد نیاز برای مجازی سازی دارای هزینههای مرتبط است، و گاهی اوقات این هزینهها بالاست. سازمان شما نمیتواند به تنهایی از عهده این مخارج برآید.
۶: از ماشین های مجازی برای سیستمهای یکبار مصرف استفاده کنید
این مساله ممکن است برای برخی افراد کمی عجیب به نظر برسد، اما مواقعی هست که شما موقتاً نیاز به یک سیستم و یا سرویس دارید. در چنین مواقعی هیچ راهی بهتر از ارائه یک سرویس موقت با ماشینهای مجازی وجود ندارد. نیاز به یک سرور FTP موقت هست؟ ماشین مجازی کارساز است. نیاز به یک پرینت سرور یا وب سرور موقت هست؟ ماشین مجازی کفایت می کند. یک نکته خوب راجع به ماشینهای مجازی این است که منابع سخت افزاری آنها برای شما هزینه بر نیست، بنابراین ایجاد چنین ماشینی بسیار آسان است. شما حتی میتوانید ماشینهای مجازی خاصی را برای “وظایف یکبار مصرف” ایجاد کرده و آنها را تنها در صورت نیاز فعال کنید.
۷: هنگامی که کارآیی مهم است، از دیسکهای حجیم استفاده کنید
اکثر مدیران برای ماشینهای مجازی خود دیسکهایی با حجم پویا ایجاد میکنند. برای آن دسته از ماشینهای مجازی که نیاز به کارآیی بیشتری دارند، باید دیسک های حجیمی اختصاص دهید. به عبارت دیگر، یک اندازه واقعی برای دیسک در پیکربندی ماشین مجازی تنظیم کنید. بله، باید برنامه ریزیهای لازم را بکنید تا ماشین میزبان فضای کافی برای سرویس دهی به ماشینهای مجازی را داشته باشد. اما کارآیی حاصل از این کار قطعاً ارزش وقتی که صرف کردهاید را خواهد داشت.
۸: تمام ابزارهای توسعه ماشین مهمان (guest)و مجازی سازی را نصب کنید
این امر اجتناب ناپذیر است. اکثر ابزارهای ماشین مجازی (مانند VMware و VirtualBox) ابزارهای توسعه ماشین مهمان و دیگر ابزارهای مجازی سازی را ارائه میدهند که برای بهبود تجربه و عملکرد و همچنین ارتباط یکپارچه مهمان و میزبان ایجاد شدهاند. بسیاری از مدیران از نصب این ابزارها با فرض اینکه غیر ضروری هستند، غفلت میکنند. اما شما آنها را نصب کنید. ابزارهای یکپارچه سازی ماوس، درایورهای صفحه نمایش، یکسان سازی زمان مهمان- به- میزبان ، و ابزارهای دیگر میتوانند برای کمک به کارآمدتر ساختن یک ماشین مجازی نصب شوند. اگرچه ممکن است لازم نباشند، اما برای بهبود قابلیت استفاده نهایی مفیدند.
۹: سیستم میزبان خود را در تمام اوقات کاملاً به روز نگه دارید
اکثر افراد تصور میکنند تمام فشار روی سیستم عامل ماشین مهمان است. هر چند این امر برای ماشین مجازی درست است، میزبان نیز نقش مهمی در این فرآیند ایفا میکند. آخرین چیزی که شما نیاز دارید این است که ماشینهای مجازی خود را بر روی یک دستگاه آسیب پذیر ایجاد کنید. اگر این سرور میزبان ماشینهای مجازی متعددی نیست، مطمئناً تنها چیزی که در معرض خطر است دادههای ارزشمند سرور است. اما از آنجا که سرور میزبان تعدادی ماشین مجازی است (که برخی از آنها میتواند متعلق به مشتریان باشد)، تهدید از دست دادن دادهها به طور قابل توجهی افزایش مییابد. به همین دلیل، شما باید مطمئن شوید که ماشین میزبان به روز و همیشه ایمن است.
۱۰- از یک راه کار جامع برای مانیتورینگ زیر ساخت های مجازی سازی استفاده کنید
نظارت بی وقفه و جامع زیر ساخت های مجازی سازی از اهمیت بسیار بالایی برخوردار است، به خصوص در مواقعی که تعداد سرورهای مجازی شما زیاد باشد امکان کنترل سلامت و بررسی وضعیت هر یک از سیستم ها به صورت موردی و دستی امکان پذیر نیست، لذا شما نیاز به راه کاری تخصصی برای مانیتورینگ ۲۴ ساعته سرورهای مجازی دارید که در صورت بروز هر گونه اشکال شما را بلادرنگ از موضوع با خبر سازد، سیستم جامع مانیتورینگ شبکه و دیتا سنتر همه آنچه شما برای این امر نیاز دارید در اختیارتان قرار خواهد داد.
نتیجه
زمانی ممکن است شرکت شما قصد سرمایه گذاری در فناوریهای مجازی را داشته باشد. در آن زمان، شما باید تا حد امکان آمادگی داشته باشید. توجه کنید که با سعی و کوشش و پشتکار کافی، ماشین های مجازی در پول، زمان و تلاش شما صرفه جویی میکنند – که در نهایت باعث رضایت مشتریانتان میشود.
چندی پیش مایکروسافت و VMware از نسخه های جدید محصول مجازی خود رونمایی کردند و اکنون امکان مقایسه بین این دو محصول با نام های Hyper-V 2012 R2 و vSphere 5.5 فراهم شده است.
vSphere 5.5 چندین اصلاح از نظر مقیاس پذیری (scalability) انجام داده است، از طرفی Microsoft Hyper-V 2012 به امکانات و ویژگی های موجود در نسخه های قبلی بهبود بخشیده است. در حال حاضر امکانات قدیمی Vmware مورد توجه مایکروسافت قرار گرفته و در نسخه جدیدHyper-V لحاظ شده است. مانند cloning و disk resize (با امکان کاهش اندازه)
ما باید از چندین جهت عمل مقایسه را بین این دو مجازی سازی انجام دهیم و اعدادی که در جدول زیر نوشته شده است برای مقایسه این دو کافی نیست. ضمن اینکه حداقل حافظه برای هر دو متفاوت است مدیریت حافظه نیز برای هر دو فرق دارد. Vmware از تکنولوزی مختلف و Hyper-V فقط از حافظه داینامیک استفاده می کند. سخت افزار مورد نیاز برای هر دو تقریباً مشابه ولی فضایی که برای Hypervisor نیاز است، متفاوت می باشد (Esxi می تواند بر روی ۱ گیگا SD card یا USB نصب شود.)
Scaling
سیستم | منابع | Hyper-V 2012 R2 | Vs phere 5.5 Essential plus | Vsphere 5.5 Enterprise plus | Vsphere 5.5 Enterprise Plus |
Host | پردازنده منطقیLogical Processors | ۳۲۰ | ۳۲۰ | ۳۲۰ | ۳۲۰ |
Host | حافظه فیزیکیPhysical Memory | ۴TB | ۴TB | ۴TB | ۴TB |
Host | پردازنده مجازی برای هر هاست | ۲۰۴۸ | ۴۰۹۶ | ۴۰۹۶ | ۴۰۹۶ |
VM | پردازنده مجازی برای هر ماشین مجازی | ۶۴ | ۸ | ۸ | ۶۴ |
VM | حافظه برای ماشین مجازی | ۱TB | ۳۲GB | ۱TB | ۱TB |
VM | حداکثر دیسک مجازی | ۶۴TB | ۶۴TB- 1% | ۶۴TB- 1% | ۶۴TB- 1% |
VM | ماشین مجازی فعال | ۱۰۲۴ | ۵۱۲ | ۵۱۲ | ۵۱۲ |
Cluster | بیشترین نود | ۶۴ | – | ۳۲ | ۳۲ |
Cluster | بیشترین ماشین مجازی | ۸۰۰۰ | – | ۴۰۰۰ | ۴۰۰۰ |
حافظه پویا (Dynamic Memory) ابزار مجازی سازی Hyper-V است که این امکان را می دهد که از حافظه جانبی (RAM) استفاده کاراتری داشته باشید. با استفاده از حافظه پویا ، Hyper-V به حافظه جانبی به شکل یک منبع مشترک نگاه می کند که می تواند به صورت خودکار و در حالی که ماشین مجازی در حال اجراست دوباره تخصیص یابد.
توجه داشته باشید که ما می توانیم مقدار استاتیک از حافظه را به ماشین های مجازی اختصاص دهیم. کاربرد حافظه پویا لزوماً ضروری نیست ولی استفاده از آن کاراتر است. ضمن اینکه ترکیبی از حافظه استاتیک و پویا را می توانیم مورد استفاده قرار دهیم.
حافظه پویا مقدار حافظه موجود در ماشین مجازی را بسته به مقدار درخواست توسط ماشین مجازی و مقداری که مشخص کرده اید، تنظیم می کند. حافظه پویا در Hyper-V در windows server 2008 R2 SP1 موجود است ضمن اینکه می توان این امکان را برای سرویس دهی در رول Hyper-V در Windows server 2008 R2 یا برای Hyper-V server 2008 R2 نیز فعال کنید.
Startup RAM
دو نقش عمده در hyper-V ویندوز سرور ۲۰۱۲ ایفا می کند:
۱-اگر Dynamic Memory غیرفعال باشد، startup RAM به عنوان یک حافظه استاتیک عمل می کند.
۲-اگرDynamic Memory فعال باشد مقدار حافظه (RAM) مورد نیاز برای اجرای ماشین مجازی را نشان می دهد.
Minimum RAM (جدید)
حداقل حافظه جانبی مورد نیاز برای اختصاص به ماشین مجازی در هر زمانی را نشان می دهد. این عدد بایستی کمتر یا مساوی مقدار Startup RAM باشد. اگر ماشین مجازی به حافظه کمتری نیاز داشته و یا دیگر ماشین های مجازی به حافظه بیشتری نیاز داشته باشند Minimum RAM به Hyper-V این امکان را می دهد که مقدار حافظه اختصاص یافته به ماشین مجازی خاصی را کاهش دهد.
Maximum RAM
بیشترین مقدار حافظه که یک ماشین مجازی می تواند تقاضا کرده و مورد استفاده قرار دهد که حداکثر آن ۶۴G می باشد.
Memory Buffer
مقدار حافظه ایی که Hyper-V قصد تخصیص به ماشین مجازی را دارد در قیاس با مقدار حافظه ایی که واقعاً توسط برنامه ها و اپلکیشین های در حال اجرا در ماشین مجازی مورد نیاز است.
Memory Weight
اولویت ماشین مجازی را برای اخذ حافظه پویا نشان میدهد.
در مقابل حافظه پویا، در VMware Vsphere ، Hot add این امکان را به ادمین می دهد تا میزان حافظه ماشین مجازی را بدن وقفه افزایش دهد.
Hot add را در طول پیکر بندی VMware می توان فعال کرد چون به صورت پیش فرض این گزینه فعال نیست و ماشین های مجازی بایستی خاموش شوند تا بتوان این گزینه را فعال کرد. ضمناً VMware، Hot add حافظه ، پردازنده ، NIC و … را نیز دارد.
کوالکام امروز اعلام کرد که پردازندههای سری اسنپدراگون خود را برای پشتیبانی از فناوری واقعیت افزودهی پروژهی تانگوی گوگل، بهینه سازی میکند. بزرگترین تولید کنندهی تراشه در جهان دو پردازندهی اسنپدراگون ۶۵۲ و اسنپدراگون ۸۲۰ را دارای قابلیت پشتیبانی از این فناوری خوانده است. فناوری تانگو امکان مشاهدهی اطلاعات و دادههای انیمیشنی را روی تصاویری از دنیای واقعی برای کاربران روی تبلت یا گوشی هوشمند امکان پذیر میکند. برای مثال با استفاده از تانگو میتوان نحوهی چینش یک صندل یا مبل را به هنگام خرید از فروشگاه در دکوراسیون منزل مشاهده کرد. با توجه به اینکه کوالکام نیز به صف کمپانیهای حامی پروژهی تانگو پیوسته، میتوان انتظار داشت این فناوری به زودی بصورت همهگیر راهی بازار شود. کمپانی چینی لنوو نیز از جملهی حامیان پروژهی تانگو است.
براساس برآوردهای صورت گرفته انتظار میرود بازار واقعیت مجازی در سال ۲۰۲۰ ظرفیتی ۱۲۰ میلیارد دلاری داشته باشد.
کوالکام به این موضوع اشاره کرده که تراشههای سری ۶۰۰ و سری ۸۰۰ اسنپدراگون از فناوری تانگو پشتیبانی خواهند کرد. تمام سنسورها و الگوریتمهای مورد استفاده برای استفاده از فناوری تانگو توسط پردازندهی اسنپدراگون میزبانی خواهد شد. این موضوع استفاده از پردازندهی کمکی برای انجام پردازشهای مورد نیاز تانگو را غیرضروری کرده و از اینرو مصرف انرژی نیز کاهش مییابد. میزان انرژی مصرف شده برای پشتیبانی از پروژهی تانگو کمتر از ۲ وات است که استفاده از آن در گوشیهای هوشمند را توجیه پذیر میکند.
در سال ۲۰۱۴، کمپانی اینتل قول داد که پیادهسازی کممصرف معماری برادول (Broadwell) این شرکت، همان انقلابی را به وجود بیاورد که تولیدکنندگان مختلف، مدتها انتظار داشتند در معماری x86 این کمپانی ببینند. اینتل مدعی بود که استفاده از پردازندههای سری Core M کاهش بسیار چشمگیر مصرف انرژی را در پی داشته و موجب میشود فشرده سازی و اجتماع قطعات سختافزاری به بهترین وجه شده و امکان ساخت سیستمهای x86 بدون فن را برای اولین بار فراهم کند.
متاسفانه تاریخ این گونه نشان نمیدهد و ادعای اینتل ثابت نشد. گرچه پردازندههای Core M توانستند به موفقیتهایی در تبلتهای بزرگ، الترابوکها و تبلتهای هیبریدی دست یابند، اما سختافزار این تبلتها نزدیک به پرازندههای core i3، i5 و i7 بوده است. برای این که دید بهتری به این موضوع پیدا کنید بهتر است بدانید که پس از یک بررسی مشخص شد که از بین ۳۲۸ مدل مختلف از تبلتهای هیبریدی، تنها ۴۲ دستگاه از پردازندههای core M، M3 ،M5 و M7 بهره میبرند. این بدان معناست که گرچه سری Core M به طور کامل از خطوط تولید کنار گذاشته نشدهاند، اما توجه چندانی هم به آنها نمیشود.
دیجیتال ترندز به تازگی مقالهای منتشر کرده و در آن گفته است: «هیچ کس پردازندههای سری Core M اینتل را نمیخواهد و نمایشگاه کامپیوتکس هم صحت ادعای ما را ثابت کرد.» گرچه ممکن است وضعیت به اندازهای که دیجیتال ترندز گفته است وخیم نباشد، اما تا حدودی هم باید به این حقیقت اعتراف کرد که بر خلاف ادعا و هیاهوی تبلیغاتی اینتل در سال ۲۰۱۴، پردازندههای سری Core M نتوانستهاند به انتخاب اصلی تولیدکنندگان دستگاههای هیبریدی تبدیل شوند. همچنین بر خلاف دیجیتال ترندز، ما گمان نمیکنیم که این مشکل مربوط به قیمت یا برند این تراشهها باشد، چرا که اینتل معتبرترین سازندهی تراشه در تمام دنیا است و قیمتگذاری این تراشهها هم نسبت به مدلهای دیگر اینتل منصفانه بوده است.
هدف اینتل از ساخت پردازندههای سری Core M قرار دادن گزینههای بیشتر در دسترس تولیدکنندگان اولترابوکهای بالارده بود. این تولیدکنندگان پیشتر گزینههای محدودی در دسترس داشتند. متاسفانه در بسیاری از موارد، تولیدکنندگان ترجیح دادند که در کنار افزایش رزولوشن صفحه نمایش، تمرکز خود را روی کاهش ضخامت و رسیدن به باریکترین طراحی ممکن قرار دهند و همین موجب شد که از پردازندههای Core M دوری کنند.
افزودن هر پیکسل به صفحه نمایش، بهایی دارد که باید پرداخت شود و آن هم مصرف بیشتر انرژی است. اگر بخواهید متنی را با بزرگنمایی ۱۵۰ تا ۲۰۰ درصد در صفحه نمایش جدید خود بخوانید، پیکسلهایی که حالا توسط چشم شما دیده نمیشوند مقداری انرژی مصرف میکنند که بیشتر از نمایشگر قبلی با رزولوشن کمتر است. صفحه نمایش ردهبالا که دارای روزلوشنهای بالایی هستند، خود انرژی گرمایی قابل توجهی تولید میکنند و همین موجب میشود که برای گرم شدن پردازنده، حد معینی تعیین کنیم که از آن فراتر نرود. چیپهای تولید شده توسط اینتل هنوز دارای مدار مجتمع وایفای یا رادیو روی خود نیستند، اما از طرفی مصرف انرژی آنها از سیستم روی چیپهای ARAM که گزینههای یاد شده را بر روی خود دارند بالاتر است.
اینتل هرگز به صورت رسمی تایید نکرد که پردازندههای Core M از نسخهی کم مصرف معماری ۱۴ نانومتری بهره میبرند، اما اشارههایی مختصر به این موضوع داشته است. مثلا در برخی از بیانیههای اینتل، به فرایند ۱۴ نانومتری ساخت این پردازندهها و تمایز آن از فرایند ۱۴ نانومتری TriGate معمول این کمپانی اشارههایی شده است. اگر این موضوع صحت داشته باشد، بعید است که اینتل به همین راحتی قصد تعطیل کردن خط تولید تراشههای سری Core M خود را داشته باشد. اگر هم این کمپانی قصد توقف تولید این محصولات را داشته باشد، هنوز در حد پیشنهاد است و نمیتوان زمان خاصی را برای آن تعیین کرد.
بررسیهای دیجیتال ترندز روی باتری دستگاهها هیبریدی نشان داد که اگرچه در شرایط بیکاری و استندبای، پردازندههای Core M نسبت به سایر پردازندههای مورد استفاده در این محصولات از نظر مصرف انرژی دارای بازدهی بهتری هستند، اما در عمل هنگام استفاده و در حین انجام کارهای عادی، تفاوت چندانی با سایر پردازندهها ندارند. این وبسایت به بررسی سه مدل مختلف از کمپانیهای سامسونگ، لنوو و ایسوس پرداخته است. مدلهای Samsung Ativ Book 9 ،Zenbook UX305 و Lenovo T450s. مدل Ativ Book 9 سامسونگ از یکی از پردازندههای نسبتا قدیمی و سری اول خانوادهی Core M اینتل بهره میبرد که مبتنی بر معماری برادول است، در حالی که مدل Zenbook UX305 ایسوس از یک پردازنده Core m3 6Y30 جدید و مبتنی بر اسکایلیک بهره میبرد. بهینگی و عملکرد این دو مدل در مصرف باتری، با دستگاه T450s لنوو مقایسه شده است. این دستگاه از پردازندهی core i5 5300U بهره میبرد. در جدول زیر، نتایج این بررسی را مشاهده میکنید.
تفاوت زیاد بین مصرف باتری این دو پردازندهی Core M در حالت استراحت و بیوظیفگی، نشانگر وجود تفاوتهای ظریفی در تنظیم UEFI این دو پردازنده است، و ناشی از تفاوت معماری این دو نیست. به همین دلیل است که در تستهای بعدی، این دو پردازنده بسیار به هم نزدیک هستند.
این تستها که بر اساس کارکرد معمول یک دستگاه در دنیای واقعی شبیه سازی شدهاند و نتایج آنها نشان داد که گرچه اینتل موفق شده است پردازندههایی کممصرف به کاربران عرضه کند، اما تنها اندکی کم مصرفتر. اینتل نتوانسته پردازندههایی بسازد که به طور جدی و چشمگیری کم مصرفتر از نمونههای پیشین این کمپانی باشند. همان طور که در شکل بالا ملاحظه میکنید، اختلاف مصرف انرژی بین این دو گروه پردازنده در شرایط کاری عادی چندان زیاد نیست. نمیتوان با اطمینان گفت که قیمت چقدر در این امر تاثیر داشته است.
از آنجا که Core M 2 in 1 یعنی نوع قابل استفاده در تبلتهای هیبریدی، نسبتا گران و مخصوص دستگاههای بالارده است، سازندگان محصولاتی همچون سرفیس ۳ که قیمت پایین دارد، ترجیح میدهند از پردازندههای سری اتم کمپانی اینتل بهره ببرند، چرا که این پردازندهها بسیار ارزانتر از پردازندههای Core M هستند. مثلا پردازندهی Atom x7-Z8700 تنها ۳۷ دلار قیمت دارد که در برابر قیمتهای چندصد دلاری پردازندههای Core M 2 in 1 واقعا ناچیز است.
از طرفی میتوان مواضع تند دیجیتال ترندز در برابر پردازندههای Core M را درک کرد. در مجموع، ممکن است این وبسایت در مورد فاصله گرفتن تولیدکنندگان از این پردازندهها به خاطر قیمت آنها درست بگوید. کمپانیها از این پردازندهها در محصولات خود چندان استفاده نمیکنند، زیرا احتمالا این پردازندهها برتری خاص و چشمگیری در ازای قیمت بالایشان ندارند. البته این فقط یک عقیده است و نمیتوان عدم موفقیت این سری را فقط ناشی از قیمت آنها دانست. پیشتر هم گفتیم که امروزه تولیدکنندگان در ساخت دستگاههای خود به صورت وسواسگونهای به افزایش رزولوشن صفحه نمایش تا مقادیر بیهوده و صرفا تبلیغاتی، کاهش ضخامت و کم کردن وزن توجه میکنند. البته افزایش رزولوشن همیشه بیهوده نیست و کاربردی بودن یا نبودن آن به اندازهی پنل صفحه نمایش دستگاه هیبریدی مورد نظر بستگی دارد. مثلا رزولوشن ۴K برای یک تبلت ۱۰ اینچی واقعا ضروری نیست، چرا که حتی اگر از پنلی با رزولوشن ۲K هم استفاده کنیم، باز هم میتوان محتوای دلخواه را با بالاترین کیفیت مشاهده کرد.
در نتیجهی اعمال تغییرات مذکور در طراحی و ساخت، طبیعتا فضای کمتری در دسترس بوده و باتریهای کوچکتری هم در بدنه جای داده میشود و شاید همین امر موجب عملکرد نسبتا ضعیف پردازندههای Core M هم در عملکرد و هم در میزان مصرف انرژی شده است. کسب نتایج نزدیک در تست تعجبی ندارد. به هر حال این پردازندهها با پردازندههای Core i5، i3 و i7 که در دستگاههایی با اندکی ضخامت بیشتر استفاده شدهاند مقایسه نشدهاند. ضخامت و باتری دستگاههای بهرهمند از پردازندههای Core i بیشتر از دستگاههای دارای پردازندهی Core M است و همین موجب استفاده از باتریهایی نابرابر در این دو گروه از محصولات شده است.
اگر کمپانی اینتل تصمیم به توقف تولید پردازندههای سری Core M خود گرفته است، بهتر است این کار را تا زمان عرضهی پردازندههای ۱۰ نانومتری سری Cannonlake به تاخیر بیندازد، چرا که اینتل هم اکنون روی فناوری ۱۴ نانومتری خود مانور میدهد. از طرفی پردازندههای Core M هم بر اساس همین فناوری ساخته شدهاند و با حذف آنها، محصول خارقالعادهای ساخته نخواهد شد، زیرا از لیتوگرافی کوچکتر خبری نیست و در هر صورت اینتل باید تا هنگام معرفی فناوری ۱۰ نانومتری خود، از تکنولوژی ۱۴ نانومتری استفاده کند و به همین دلیل نمیتواند با حذف سری Core M و ارائهی یک سری ۱۴ نانومتری جدید، تغییرات شگرفی ایجاد کند. از طرفی اپل هم مکبوک خود را به پردازندههای Core M مجهز کرده است و ممکن است بخواهد در نسلهای بعدی اولترابوک خود مجددا از این پردازندهها استفاده کند. بنابراین بهتر است اینتل فعلا دست نگه داشته و به تولید پردازندههای Core M خود ادامه دهد.
شرکـــت «HPE» ســـرور ردهپاییـــن ۳۰۰ دلاریای بــــه نـــــام «ProLiant ML10 Gen9» معرفی نمود که میتواند به خوبی جایگزین کامپیوتر دسکتاپ ما شود. این سرورکه Mini Tower با اندازه ۴U برای کاربران خانگی و کسبوکارهای کوچک اداری طراحی و ساخته شده است و کاربران را از خرید سرورهای گران با قدرت محاسباتی بسیار زیاد که عمدتاً بدون مصرف باقی میماند، بینیاز می نماید.
هسته پردازنده این سرور میتواند از مدلهای جدید اسکایلک اینتل، Core i3 یا Xeon E3-1200 V5 باشد. تعداد پردازنده نصبشده روی این سرور یک عدد بوده ولی با دو یا چهارهسته که در کنار ۶۴ گیگابایت حافظه رم و چهار اسلات رم DDR4، میتواند عملیات پردازشی را سروسامان و روان نماید. شش درایو SSD روی این سرور نصب شده و مجهز به چهار اسلات توسعه برای اضافه نمودن قابلیتهای سختافزاری جدیدی می باشد. یک درگاه شبکه اترنت، چهار درگاه USB 3.0، دو درگاه USB 2.0 و دو درگاه eSATA، امکانات ارتباطی این سرور هستند. که می توان از آنها بهره برد.
این محصول به گونه ای طراحی شده است و از مشخصات سختافزاری بهره برداری می کند که میتواند بهعنوان سرور ذخیرهسازی یا NAS، دستگاه ایستگاه کاری یا سرور محاسباتی قابل استفاده گردد. پیکره بندیهای سختافزاری مختلف این سرور شرکتهای تجاری کوچک را یاری میکند تا بر اساس نیاز و رشد کسبوکارشان یک مدل از این سرور را تهیه نموده و آن را ارتقاء دهند. امکان نصب چهار درایو SSD این قابلیت را فراهم می نماید تا از پیکره بندیهای مختلف RAID برای پشتیبانگیری از اطلاعات استفاده گردد و با سختافزارهای رمزنگاری، امنیت اطلاعات را تضمین نماید.
«OpenPOWER» سرور قدرتمندی است که برای کاربردهای محاسباتی با عملکرد و راندمان بالا (HPC) طراحی و عرضه میشود. اکنون «آیبیام» با همکاری «انویدیا» و «وسترون» نسخه دوم این سرور را با استفاده از آخرین نسل پردازندههای فوقسریع Power8 خود معرفی کرده است.
انویدیا همچنین در این سرور از شتابدهندههای گرافیکی Tesla P100 خود در کنار اینترکانکشنهای مبتنی بر فناوری NVLink استفاده کرده است. سرور جدید برای تطبیق و استفاده از برنامههای لازم روی معماری جدید سختافزاریاش نیاز به نرمافزارهایی دارد. آیبیام و انویدیا توضیحات زیادی درباره این سرور ندادهاند، به جز اینکه میدانیم از چندین پردازنده Power8 و چندین شتابدهنده Tesla P100 بهره می گیرد و پهنای باند اینترکانکشنهای NVLink، احتمالاً مثل مدل قبلی و برابر ۲۰ گیگابایت بر ثانیه هستند.
پردازندههای Power8 آیبیام دارای ۱۲ هسته پردازشی هستند و در سرعت کلاک ۳ تا ۳٫۵ گیگاهرتز کار کرده و هریک میتوانند تا هشت سختافزار را به صورت Thread پشتیبانی نمایند. میزان حافظه نهان این پردازندهها ششمگابایت از نوع L2 و ۵۱۲ کیلوبایت برای هر هسته در کنار ۹۶ مگابایت حافظه نهان L3 می باشد. هر پردازنده Power8 حداکثر از یک ترابایت حافظه رم پهنای باند ۲۳۰ گیگابایت پشتیبانی می نماید؛ در حالی که بهترین پردازندههای سرور اینتل، Xeon E5 v4 تنها از ۷۶٫۸ گیگابایت پهنای باند روی حافظههای رم DDR4 بهره می گیرد. به همین دلیل، سرورهای OpenPOWER برای کاربردهای بسیار سطح بالا و مکانهای با حداکثر بار ترافیکی پردازشی طراحی شده است و توان خروجی به اندازه برخی ابررایانهها را ممکن پذیر میسازند.
تا چند سال گذشته استفاده از درایوهای SSD در کسبوکارهای حرفهای و گسترده، سرورها و مراکز داده به دلیل هزینه بالا و ظرفیت ذخیرهسازی کم قابل تصور نبود اما حالا استفاده از هارددیسک در سرورها متوقف شده و هر روز تعداد مراکز داده بیشتری مبتنی بر حافظههای فلش و SSD پیکربندی میشوند؛ گویی مسابقه و رقابتی برای به کارگیری این نوع استاندارد ذخیرهسازی در جهان به راه افتاده اما با وجود اینکه قیمت این ذخیرهسازها کاهش نیافته است، چه مزایای رقابتیای دارند که باعث از دور خارج شدن HDD شدند و نه تنها در حافظه رم و حافظه فلش، بلکه در فضای ذخیرهسازی با ظرفیتهای بسیار بالایی مانند صد پتابایت نیز از SSD استفاده میشوند؟
فن آوری و انواع SSD ها در مراکز داده
درایوهای SSD حرفهای که در سرورها و مراکز داده استفاده می گردند، با درایوهای SSD کامپیوترهای رومیزی، نوتبوک، تبلت و مانند اینها تفاوتهای اساسی دارند. این درایوها در محیطهای با بار کاری و ترافیکی بسیار بالایی مانند پایگاهدادهها، بیگ دیتا، ایندکس و لاگگیری فایلها و تراکنشها، تحلیل اطلاعات و آمار و ارقام و مراکزی با ترافیک صدها گیگابایت اطلاعات در هر ثانیه استفاده میگردند.
مراکز داده که به اصطلاح Enterprise SSD نامیده میشوند و با این برچسب در بازار به فروش می گیرند، به طور کلی با استفاده از حافظههای فلش NAND ساخته شده و در مقایسه با هارددیسکهای معمولی، کارایی بیشتر و مصرف انرژی کمتری دارند. همچنین این درایوها در مقایسه با SSDهای معمولی مزایای بیشتری داشته و دارند. برای مثال، علاوه بر کارایی بسیار زیاد، برای حفاظت از اطلاعات در هنگام قطع برق، از قابلیتی به نام DRAM-Stored استفاده میکنند، از الگوریتم تصحیح خطا (ECC) بهره میگیرند، جنس بدنه مقاومتر شده و سازگاری با شرایط خاص را دارند و سیستم خنککنندگی آنها متفاوت می باشد. همچنین از ضمانتهای طولانیمدتی نیز بهره میبرند.
SSD اینترپرایز به گونهای طراحی میشود که در مقایسه با SSD معمولی، پایداری و سطح مقاومت بیشتری داشته باشد. این درایوها از نوعی حافظه فلش NAND به نام Wear-Out استفاده میکنند که امکان چندین بار پاک کردن و نوشتن مجدد چیپست SSD را فراهم می سازند. سازندگان SSD اینترپرایز طوری حافظههای NAND را با استفاده از تکنیکها و الگوریتمهایی مانند Wear-Leveling، Self-Healing و Over-Provisioning طراحی و تولید می نمایند که در طول زمان بر استقامت و استواری آنها افزوده می شود. با استفاده از تکنیک Over-Provisionin، تعداد حافظه NAND بیشتری در درایو SSD اینترپرایز گنجانده میشود تا در هنگام عملیات بازنویسی چیپست یا خرابیها، استفاده و جایگزین شوند.
تنوع در استفاده از انواع حافظههای فلش NAND و تکنیکهای مقاومسازی و افزایش ظرفیت ذخیرهسازی، سبب شده که اکنون در بازار با طیفهای مختلفی از درایوهای SSD مناسب مراکز داده روبهرو بشویم
درایوهای SSD اینترپرایز جدید که در سالهای اخیر عرضه شده، از یک سطح سلولی (SLC) حافظه NAND استفاده مینمایند که باعث شده هر بیت در یک سلول نوشته شده در نتیجه، بیشترین سطح کارایی و پایداری با دوره زندگی (LifeCycle) نزدیک به صد هزار بار نوشتن روی هر سلول به دست آید. پیشرفتها و بهبودهای چند سال اخیر در حوزه تولید حافظههای فلش، به سازندگان SSD این قدرت را داده اند که از انواع حافظههای فلش مانند Multi Level Cell (MLC) ،(TLC) Triple Level Cell و ۳D NAND در ساخت SSD اینترپرایز استفاده کنند و در نتیجه با کمترین رقم هزینه، بالاترین ظرفیت ذخیرهسازی و پایداری را به دست آورند. تنوع در استفاده از انواع حافظههای فلش NAND و تکنیکهای مقاومسازی و افزایش ظرفیت ذخیرهسازی، سبب شده که اکنون در بازار با طیفهای مختلفی از درایوهای SSD مناسب مراکز داده روبهرو بشویم که هریک برای محیطهای کاری و کاربردهای خاص طراحی و تولید شدند. برای مثال، شرکتی درایوهای SSD با ظرفیتهای بسیار بالا تولید میکند که فقط مناسب استفاده در محیطهای نرمافزاری و پایگاه دادهای با بار کاری بالا برای نوشتن و خواندن اطلاعات هستند. درایو SSD دیگری برای نوشتن کامل روی درایو در یک روز (DWPD) طراحی شده است؛ به این معنی که هر روز کل ظرفیت درایو پر شده و روز بعد دوباره از ابتدا بازنویسی و پر میشود و در تمام سال این فرایند تکرار خواهد شد. درایو دیگری ممکن است از فرایند ۲۵ DWPD با ظرفیتهای بسیار کم برای پشتیبانی از اطلاعات حساس بهره برداری کند.
همان گونه که درایوهای SSD حرفهای از فناوریها و تکنیکهای مختلفی بهره میگیرند؛ در شکل و قالب و رابط کاربری مختلفی به بازار عرضه میگردند. رابط کاربری بیشتر این درایوها یکی از مدلهای serial ATA (SATA)، serial-attached SCSIم(SAS) و PCI Expressم(PCI-e) برای انتقال اطلاعات به واحدهای پردازنده یا دریافت اطلاعات از آنها می باشد. از نظر اندازه نیز رایجترینها ۵/۲ اینچی هستند که به آسانی در باکسهای هارددیسکها جایگذاری میشوند، اما اندازههای half-height half-lengthم(HHHL) با استفاده از افزودن کارت توسعه و مدلهای M.2 که در اسلاتهای توسعه PCI-e کامپیوترهای معمولی قرار میدهند، در بازار یافت میشوند. همچنین مدلهای DIMM نیز با چیپست و بردهای کوچک برای ارتباط با مادربرد کامپیوترهای معمولی عرضه شده و مورد استفاده قرار می گیرند.
اکنون، به نقطهای رسیدهایم که استفاده از درایوهای SSD توجیهپذیر شده. این حافظهها در شبکههای اینترپرایز و سرورها کارایی بسیار بالاتر و بهتری از خود نشان میدهند که بر اثر آن با پردازش حجم کاری جدیدی روبهرو می گردیم. همچنین این درایوها توانستهاند رضایت کامل کاربران نهایی را جلب نمایند و مدت زمان پاسخگویی و اجرا بسیار مناسبی در شبکههای پرسرعت و بیدرنگ نشان دهند. در بسیاری موارد، SSD باعث جلوگیری از خرید سرور جدید می گردد و این برای کسبوکارها بسیار حائز اهمیت است. چه دلایلی بهتر از اینها برای مهاجرت از HDD به SSD سراغ دارید؟
در چندین سال اخیر و با ورود شرکتهای بزرگ سازنده حافظههای NAND به دنیای سرورها و مراکز داده، درایوهای SSD به نقطه اوج خود رسیده اند. در مقایسه با هارددیسکهای سنتی، درایوهای جدید ذخیرهسازی، مدتزمان تأخیر کمتری داشته و همچنین SSD جدید در مقایسه با هارددیسکها، حدود هزار برابر در واحد IOPS تأخیر کمتری دارند، اما توان خروجی آنها سه تا پنج برابر بیشتر شده است. به همین دلیل میتوان گفت در سال جاری میلادی، SSD به طور کامل در حال جایگزین شدن با HDD می باشد.
صرفهجویی هزینهای و کارایی، تنها دلایل استقبال از SSD نیست، برخی کارهای خاص با این درایوها بسیار سادهتر و سریعتر از گذشته انجام می گردد.
بدون شک، سرورهایی که مستقیماً از درایوهای SSD بهعنوان ذخیرهساز داخلی خود استفاده می نمایند، سریعتر هستند. آشکار است که کسبوکارها، به سرورهای کمتری برای بار کاری و ترافیک خود نیاز خواهند داشت و در هزینهها صرفهجویی میشود. علاوه بر سرعت، درایوهای SSD در طول عمر مفید سرورها نیز تأثیرگذار هستند و کمک میکنند سرورها بیشتر در شبکه استفاده گردند. فناوریها و ابزارهای نرمافزاری جدید نیاز به جابهجایی هارددیسکها با SSD را برطرف کردهاند و تنها با اضافه کردن دو یا چهار SSD به سرور، میتوان بهسادگی اطلاعات کماهمیت را روی هارددیسکها کپی و از آنها بهعنوان ذخیرهسازهای جانبی استفاده نمود و در عوض، درایوهای SSD بهعنوان حافظههای اصلی سیستم به کار گرفته شوند.
صرفهجویی هزینهای و کارایی، تنها دلایل استقبال از SSD نیست، برخی کارهای خاص با این درایوها بسیار راحت تر و سریعتر از گذشته انجام می گردد. به عنوان مثال، اسکن مرتب ویدیوهای در حال ویرایش، نیازمند آرایههای RAID بزرگ برای کاهش تأخیر می باشند. حالا، این کار که در گذشته بسیار سخت و طاقتفرسا بود، به میمنت ایستگاههای کاری مبتنی بر SSD بسیار راحت و امکانپذیر شده است. همچنین عملیات جستوجو در پایگاههای داده به فضاهای ذخیرهسازی بسیار سریع نیازمند است.در دنیای تراکنشهای مالی، درایوهای SSD باعث کاهش تأخیر دسترسی به جدولهای مالی و در نتیجه کاهش هزینههای تراکنشها در مقیاس مگا-دلار در هر ثانیه شدهاست.
سرورهای SSD نیز باعث نجات سرویسهای کلاود شدند. در گذشته اولین مشکل سرویسهای محاسبات ابری، تأخیر و نرخ خواندن I/O روی تجهیزات ذخیرهسازی بود. سرورها نمیتوانستند به سرعت و بیدرنگ درخواستهای واحدهای پردازشی گرافیکی با حجم زیادی حافظه رم را پاسخگو بوده و بر حسب تقاضا بتوانند عملیات را بدون تأخیر تأثیرگذار و مختلکننده انجام دهند. این وضعیت در سرورهای مجازی و دستگاههای ذخیرهسازی محلی وخیمتر میشد. در حالی که بسیاری از شرکتها راهحل را استفاده از تعداد زیادی HDD برای بار کاری زیاد میدانستند، SSD بهراحتی این مشکل را حل نمود.
مراکز داده به تسخیر SSD درآمدند
در گذشتههای بسیار دور، سرویسهای کلاود گستردهای مانند AWS یا گوگل از ارائه سرویسهای ذخیرهسازی خودداری میکردند و مشتریان باید به سراغ سازندگان سرورهای سنتی مانند سوپرمیکرو، لنوو، کوانتا و میتک اینترنشنال میرفتند تا مستقیماً و به ازای پرداخت هزینه، از فضای ذخیرهسازی استفاده نمایند. در سال ۲۰۱۶، مراکز داده سطح متوسط بازار به راهکار جدید و بهصرفهای دست پیدا نمودند. این مراکز داده به سراغ سازندگان سرور ODM رفتند تا از درایوهای SSD در سیستمشان استفاده کنند. در این حالت و با SSD، هزینه هر یک ترابایت حدود ۳۰۰ دلار میشد، اما هزینه یک ترابایت هارددیسک SAS روی سرورهای دل، حدود ۷۰۰ دلار خرج دارد. حتی اگر شرکتهای ODM سرور، از SSD استفاده کنند، ۹۶۰ گیگابایت فضای ذخیرهسازی روی SSD حدود ۵۳۳ دلار هزینه دارد که باز هم در مقایسه با ۳۰۰ دلار هزینه زیادی است. این قیمتها داستان بیاساس گرانتر بودن SSD را به چالش میکشاند. در گذشته، هرگاه از شرکتهای ODM درباره اینکه چرا امکان استفاده از SSD را فراهم نمیکنند سؤال میشد، پاسخ میدادند که بسیار گرانتر از هارددیسکهای سنتی هستند و بهخصوص در سرورها و مراکز داده که حجم زیادی از ذخیرهسازی اطلاعات دارند، این گرانتر بودن گاهی چندین برابر میشود. این تصور ما زمانی درست است که SSD را از شرکتهای سازنده آرایههای ذخیرهسازی تهیه نمایید؛ از آنجا که این شرکتها، درایوهای SSD را بر اساس معماری خودشان تغییر میدهند، آن را گرانتر میفروشند، اما وقتی درایو SSD خامی را از بازار تهیه کنید، حتی ارزانتر از سیستمهای ذخیرهسازی سنتی مبتنی بر هارددیسک خواهد بود.
کارشناسان شبکههای کامپیوتری و مراکز داده قبول کرده اند که در این حوزه و بازار، کارایی SSD بهتر از HDD بوده و عملکرد بهتری داشته و بهتر است در تجهیزات ذخیرهسازی، حافظههای رم، حافظههای فلش ابررایانهها و حافظههای جانبی، از درایوهای SSD استفاده نمایند.
موضوع بعدی درباره SSD، به طول عمر کارایی مؤثر آن بازمیگردد. در گذشته، این باور اشتباه وجود داشت که طول عمر مفید حافظههای فلش کمتر از هارددیسکها است، ولی امروزه ثابت شده طول عمر مفید SSD پنج سال است؛ در حالی که حافظه فلش MLC فقط چهار سال عمر میکند. اگر دوره تازهسازی سرور ۳۶ ماه باشد، قالب حافظههای فلش بیشتر از این دوره عمر خواهند کرد و بنابراین دلیلی برای استفاده نکردن از آنها در سیستم سروری یا مراکز داده وجود ندارد.
همین دلایل باعث شده رقابت شدیدی میان عرضهکنندگان SSD برای سرورها و مراکز داده به وجود آید و شرکتهای بزرگی مانند سامسونگ، دل، اینتل، آیبیام، سوپرمیکرو، سن دیسک، میکرون و مانند اینها، در دو سال اخیر چندین نوع حافظه فلش و SSD به طور اختصاصی برای استفاده در سرورها و مراکز داده وارد بازار نمایند و هریک در تلاش باشند فناوریهای پیشرفتهای را به کار بگیرند تا هم سرعت افزایش پیدا کند، هم حجم فیزیکی کاهش پیدا نماید، هم ظرفیت بیشتر شود و در نهایت قیمت تمامشده برای هر گیگا – دلار کمتر گردد.
چرا کارایی SSD بهتر از HDD است؟
مدیران شبکههای کامپیوتری و مراکز داده پذیرفتهاند که در این حوزه و بازار، کارایی SSD بهتر از HDD بوده و بهتر است در تجهیزات ذخیرهسازی، حافظههای رم، حافظههای فلش ابررایانهها و حافظههای جانبی، از درایوهای SSD استفاده کنند. اما چرا کارایی SSD بهتر از HDD است؟
نخست اینکه SSD محدودیتهای سیستمهای RAID را پوشش میدهد. قالب کنترلرهای RAID در پیکربندی RAID 5 از نظر سرعت دچار تنگناهایی میشوند که درایوهای SSD این مشکل را برطرف میکنند. چون این درایوها سریع بوده و برای مثال چهار SSD در کنار یکدیگر میتوانند خروجی برابر با ۶/۱ گیگابایت IOPS را ارائه نمایند، بنابراین از هر موتور کنترلر RAID XOR سریعتر هستند. در این شرایط، موتورهای RAID بهتر میتوانند کارها را پیش برده و با کمک پردازندهها، وقفههای رخداده را نیز رفع نمایند. هنگامی که از درایوهای SSD در سیستمهای ذخیرهسازی استفاده میشود، بهتر است برای محافظت از اطلاعات، پیکربندیهای RAID 1 یا RAID 10 انتخاب گردند.
دوم، اگر نیازهای ظرفیتی ذخیرهسازی سرورها را مد نظر بگیریم، متوجه خواهیم شد که درایوهای SSD در مقایسه با HDD انتخاب بهتری می باشند. نرمافزارهای تست و ارزیابی عملکرد نشان میدهند درایو SSD با ظرفیت ۱۲۸ گیگابایت، در مقایسه با هارددیسکی با ظرفیت ۵۰۰ گیگابایت و قیمت ۱۵۰ دلار، کارایی بسیار بیشتری دارد. بنابراین، اگر نیازهای ظرفیتی ذخیرهسازی سرور در حدود ۱۲۸ گیگابایت است، دلیلی وجود نخواهد داشت که به دنبال خرید هارددیسک ۵۰۰ گیگابایتی برویم.
آینده
شرکتهایی مانند «اینتل» و «سامسونگ»، در حال توسعه حافظههای فلش ۳D NAND هستند و در تلاش هستند ظرفیت ذخیرهسازی روی Die را افزایش دهند. اینتل با همکاری میکرون توانسته روی یک Die ظرفیت ۴۸ گیگابایت، اطلاعات را با ساختار ۳۲ لایهای از سلولهای ۳D NAND ایجاد نماید که در نتیجه آن شاهد عرضه درایوهای SSD حرفهای با ظرفیت چند ترابایت خواهیم بود. پیشبینی شده در سال ۲۰۱۸ درایوهایی مناسب مراکز داده با ظرفیتهای ده ترابایت ساخته گردند. از سوی دیگر، بازدهی هارددیسکهای معمولی کمتر از حافظههای فلش NAND می باشد و در راهکارهای ذخیرهسازی مبتنی بر هارددیسکها، در حال حذف شدن از سرورها و مراکز داده می باشند. اما در برخی مراکز داده حجمهای ذخیرهسازی بسیار وسیعی با هارددیسکها ساخته شده است که به این زودیها امکان جایگزینی با حافظههای فلش NAND را نداشته و ندارند. بر همین اساس، کارشناسان پیش بینی کرده اند تا پنج سال آینده رویکرد استفاده همزمان از هارددیسکها و درایوهای SSD وجود داشته باشد تا درایوهایی با استفاده از حافظه فلش، اما در ظرفیتهای بسیار بالاتر ساخته شود که بتوان آنها را در سیستمهای قدیمی بسیار گسترده به کار گرفت و مورد بهره برداری قرار داد.
مدیران ارشد شبکه باید بین نیازهای ظرفیت و سرعت بیشتر، پایداری کل سیستم و تجهیزات ذخیره سازی قدیمی تعادل برقرار نمایند و به همین خاطر است مه با انتخابهای سختتری روبهرو هستند. همچنین، این انتخابها فقط بر اساس یک محصول ویا کالا نیست، بلکه باید راهکار مناسبی گزینش شود. در ادامه به پنج نکته اشاره مختصری خواهیم نمود که مدیران شبکه را در انتخاب SSD مناسب یاری میکنند.
۱-نیازمندیهای برنامههای کاربردی شبکه تان را بررسی نمایید
کسانی که فکر میکنند SSD فقط یک SSD است، سخت در اشتباه بزرگی هستند. در دنیای امروزه، درایوهای SSD گوناگونی برای انجام کارهای بسیار متنوع ساخته و طراحی شده است. در واقع هر SSD، روش منحصربهفرد خود را برای سروسامان دادن به درخواست کاری دارد. ممکن است یک مدل SSD برای بار کاری خواندن اطلاعات طراحی و بهینه شده و مناسب باشد و در سیستمهای کلاینت-کلاس مناسب کار کند. برعکس، ممکن است مدل دیگر SSD برای محیطهای مبتنی بر نوشتن اطلاعات طراحی و ساخته شده باشد. بنابراین بسیار حائز اهمیت است که برآورد و نگرش درستی از نیازمندیهای برنامههای کاربردی نصبشده روی سرورها و مراکز داده خود داشته باشید و بدانید قرار است چه عملیاتی روی درایوهای SSD انجام شود. اگر بدون داشتن چنین اطلاعاتی به پرس و جو در بازار بپردازید، ممکن است مدلی را خریداری کنید که پاسخگوی نیازهای شما نباشد و در آینده با مشکل روبرو شوید.
۲- به هزینه TCO دقت کنید؛ نه قیمت محصول
قبل از خرید، بهتر است کمی وقت صرف کنید و کل هزینه های به کارگیری درایوهای SSD را که شامل هزینه خرید، استقرار، نگهداری و پشتیبانی، خنککنندگی، بهروزرسانی، تعویض و هزینههای مرتبط دیگر مربوط می شوند را محاسبه کنید. بعضی از افراد فقط هزینه خرید SSD را در نظر گرفته و هر راهکار یا محصولی را که ارزانتر باشد، انتخاب و خرید میکنند. اما ممکن است این افراد به زودی پشیمان شده، چون هزینههای دیگری که مرتبط با این نوع درایوهای ذخیرهسازی می باشند در طول زمان بیشتر شود. برای مثال، عمر مفید یک SSD کمتر از چیزی باشد که تصور میکنید. ابزارهایی برای محاسبه هزینه TCO ارائه شده است که کار شما را آسانتر میکند.
۳- $/TBW به جای $/GB
در زمان گذشته وقتی قصد داشتیم هارددیسک انتخاب نماییم، هزینه یک گیگابایت فضای ذخیرهسازی را محاسبه مینمودیم و بعد تصمیم میگرفتیم. اما برای انتخاب یک SSD اینترپرایز، این دیدگاه غلط می باشد و باید با دیدگاه هزینه نوشتن روی هر یک ترابایت اطلاعات، جایگزین شود؛ چراکه در سیستمهای ذخیرهسازی گسترده، میزان عملیات نوشتن در هر سال اهمیت بسیار زیادی دارد و هر درایو SSD که بتواند از نظر نوشتن طول عمر بیشتری داشته باشد، بهصرفهتر می باشد. وقتی $/TBW را محاسبه میکنید، ممکن است به نتایج شگفتانگیزی برسید و متوجه می شوید SSD ارزان در $/TBW گران است، چون طول عمر مفید نوشتن آن زود تمام میشود و باید با SSD دیگری جایگزین آن کنید.
۴- خنک و بی صدا
مصرف انرژی و خنک سازی ذخیرهساز از برجسته ترین نکات در انتخاب و خرید این دستگاهها می باشد. معیاری که باید به آن توجه نمایید، IOPS/Watt است. هدف این می باشد که بیشترین توان خروجی را با کمترین میزان مصرف انرژی به دست آورید. اگر یک SSD با مصرف انرژی زیاد خریداری کنید، هزینههای سربار شما در طول چند سال، چندین برابر خواهد شد. تمام درایوهای SSD در بهترین حالت مصرف انرژی، خنککنندگی و توان خروجی ساخته نشدهاند و به همین دلیل باید به دنبال انتخاب درایوی باشید که در معیار IOPS/Watt جزء بهترینها و ایده آل ها باشد. چنین درایوی قادر است تا ۸۰ درصد هزینههای مصرف انرژی و خنککنندگی را کاهش دهد.
۵- تأخیر
مدیران فناوری اطلاعات و شبکه برای خرید SSD، ابتدا به مزایا و کارایی آن برای استفاده در سیستمشان و برنامههای کاربردی آنها توجه می نمایند. گاهــی زمــــان تأخیر SSD، تمام این تفاوت را نشان میدهد. وقتی موضوع تأخیر را بررسی مینمایید، بسیار حائز اهمیت است که معیارتان چیزی فراتر از حد متوسط بازار قرار دهید. همچنین باید بررسی نمایید که این تأخیر فقط محدود به همان SSD میشود یا به کل آرایه درایوهای ذخیرهسازی منتقل خواهد شد و در نهایت چه مقدار زمان تأخیری به وجود خواهد آمد. گاهی تأخیر SSD بسیار کم بوده، اما در سیستم شما تبدیل به مشکلی بزرگ خواهد بود. مدت زمان متوسط پاسخگویی را نیز در نظر داشته باشید.
==============================
دانشمندان به دلایل کاملا شفافی خود را در زمینه الکترونیک نوری درگیر نمودهاند: نور سریعتر از الکتریسیته حرکت میکند، و این به این معنا می باشد که میتوان محاسبات را سریعتر انجام داد. به گفته Scientific American، کوچکتر شدن وسایل و قطعات نیز باعث افزایش بیشتر این سرعت میشود که برای سیستمهایی نظیر پنلهای خورشیدی، سنسورهای نوری یا کاربردهای زیست پزشکی بسیار مفید و سودمند خواهد بود.
تلاشهایی که گذشته انجام شده برای ساخت این تجهیزات تک مولکولی نتایج مثبتی به همراه نداشته است، که از جمله می توان به سوئیچهایی که در موقعیت روشن گیر میکردند و یا قادر نبودند توسط انواع مختلف نور فعال شوند. محققان دانشگاه پکینگ از مواد متفاوتی برای انجام این کار استفاده کردهاند که به یک سوئیچ اجازه میدهد با ثبات کامل توسط نور در هر دو موقعیت باینری (صفر و یک) عمل کند.
این سوئیچ میتواند به مدت یک سال دوام داشته باشد که نسبت به تلاشهای اولیه پیشرفت قابل ملاحظهای محسوب میشود. ایان بالدیا از دانشگاه هایدلبرگ آلمان به Scientific American گفت که در بسیاری از موارد، ارتباطات مولکولی تنها برای لحظات، ساعات و در شرایط مطلوب برای چند روز باقی میمانند. اگرچه هنوز چند سالی باقی مانده تا ما بتوانیم شاهد حضور چنین سوئیچهایی در قطعات تجاری باشیم، اما انجام چنین کارهایی گام بزرگی برای ساخت تجهیزات باثبات در مقیاس میکروسکوپی و ریز قطعات محسوب میشود.
در هفته جاری شاهد معرفی پردازندهی بسیار کم مصرف با ۱۰۰۰ هستهی پردازشی بودیم. اما پردازندهی ۱۰۰۰ هستهای در چه زمینهای استفاده میشود و به چه دلیل باید تعداد زیادی هسته برای پردازنده داشته باشیم؟ با نتکو باشید.
قانون مور که بیان میکرد تعداد ترانزیستورها در پردازندهها هر دو سال دو برابر میشود، چندان پایدار نبوده و تولیدکنندگان قادر نشدند که در مساحت یکسان، پردازندههایی با دو برابر ترانزیستور بیشتر نسبت به ۲ سال قبل تولید کنند، حتی اگر این امکان وجود داشته باشد، افزایش ترانزیستورها به این معنی که افزایش دو برابری سرعت اجرای اپلیکیشنها نخواهد بود. در این راستا برنامهنویسی معروفی به نام هرب ساتر، در یک مقالهی مفصل در سال ۲۰۰۴ پیشبینی نمود که افزایش سرعت کلاک CPUها به حداکثر رسیده است و افزایش فرکانس نیز نمیتواند چندان در افزایش سرعت اجرای اپلیکیشنها، موثر واقع گردد.
در عوض در دنیای GPUها یا پردازندههای گرافیکی، ترانزیستورها به جای اینکه تعداد محدودی هسته را تشکیل دهند، چندین هسته را تشکیل میدهند و پردازش موازی این هستهها باعث شاهد رشد چشمگیر نسلهای مختلف کارتهای گرافیک نسبت به نسلهای قبلی باشیم. به عنوان مثال در کارت گرافیک جدیدِ GeForce GTX 1080 از انویدیا شاهد بکارگیری ۲۵۶۰ هسته می باشیم که با فرکانس ۱۶۰۰ تا ۱۷۰۰ مگاهرتز کار میکنند. برنامه نویسها و developerها نیز نرمافزارهایی ساختهاند که به بخشهای کوچک تقسیم میشود تا توسط این GPUها پردازش شود. بازیها یا نرمافزارهای علمی از این دسته هستند که عموما پردازش مربوط به آنها توسط GPU انجام میشود.
اما در دنیای امروزی، اکثر نرمافزارها تنها با یک Thread اجرا میشوند و به همین دلیل است که تغییری در سرعت اجرای آنها با یک پردازندهی ۴ هستهای و همان پردازنده با یک هسته وجود ندارد. قسمتی از این مشکل به دلیل ضعف نرمافزارها است که جوری برنامه نویسی نشدهاند که از تمام توان پردازندهها و هستهها استفاده کنند. از طرفی برخی از دستورات نیز آنقدر پیچیده هستند که به راحتی نمیتوان آنها را به چندین بخش کوچک تبدیل کرد.
تبدیل ترانزیستورهای بیشتر به نرمافزارهای سریعتر، روز به روز سخت و دشوار میشود
با این حال، به احتمال زیاد در آینده، پردازندهها به هستههای ضعیفتر اما بسیار بیشتر مجهز خواهند شد؛ چرا که سرعت پردازشِ پردازندهها با روش فعلی به کندی افزایش مییابد و چارهای جز اضافه کردن تعداد هستهها نیست. به همین دلیل است که خبر ساخت پردازندهی ۱۰۰۰ هستهای مهم و خبرساز میشود.
معماری تراشهها به نوعی عجیب و بسیار پیچیده است و اگر تعداد هستهها را در پردازندهها افزایش دهیم شاید مجبور شویم که کل ساختار کامپیوترها را تغییر دهیم. در پردازندهها، هر کدام از هستهها تقریبا فضای مستقل و جداگانهی خود را دارند و هستهها از طریق شبکهی داخلی خود با یکدیگر ارتباط ساختاری برقرار میکنند. به همین دلیل است که کار برنامهنویسها برای استفاده از تمام توان هستهها دشوار میشود. در همین راستا ایدههای مختلفی مطرح شده است که شاید جذابترین آنها معماری KiloCore است که بکار گیری از ۶۴ هسته در پردازنده را سادهتر میکند. مهمترین برگ برندهی کیلوکور در مصرف بهینهی انرژی است. تیم UC Davis بیان می کند که کیلوکور تا ۱۰۰ برابر مصرف بهینهتری از پردازندهی لپتاپهای مورد استفاده شده در حال حاضر را دارد. یک پردازنده با این معماری حتی با یک باتری قلمی نیز کار میکند.
در نتیجه برای آنکه شاهد پردازندههای قویتر، سریعتر و کممصرفتری باشیم احتمالا باید بدنبال طراحی CPUهای شبیه به GPU با هستههای زیاد باشیم. پردازندههایی که تعداد هستهی زیاد با فرکانس پایینتر دارند و قادر به پردازش موازی تعداد زیادی عملیات کوچک هستند. اما برای رسیدن به کامپیوترهای سازگار به این نوع پردازندهها، راه پر و پیچ و خم و دشواری پیشِ رو است و باید تولیدکنندگان سختافزار و نرمافزار عزم خود را جزم نمایند.
همیشه برقراری ارتباط بین تجهیزات دیجیتالی پیچیده نیست گاهی فقط کافیست اونها رو کنار هم قرار بدیدن. امروز با توجه به دستگاه های بیشتری که هر روز وارد بازار میشه، میخواهیم بیشتر راجع به مزایا و معایب این فناوری بگیم و اینکه این فناوری تا چه اندازه توی تجهیزات دیجیتالی امروزی، مصرف داشته.
NFCیه پروتکل است که برای انتقال با برد کوتاه در حد چند سانتیمتره، این پروتکل یه شکل پیشرفته تر از تکنولوژی RFID محسوب میشود. با این تفاوت که فناوری RFID یک ارتباط یک طرفه می باشد، که در آن همیشه یک فرستنده که غالبا شبیه یک برچسب می باشد،که اطلاعات رو ارسال میکنه و یک دستگاه هم که نقش گیرنده رو ایفا میکند میتونه اطلاعات روی اون برچسب رو دریافت بکنه.
اما فناوری NFC میتونه یه ارتباط دو سویه باشه، یعنی فرستنده و گیرنده بسته به نیاز کاربر، میتونند نقش هاشون رو با هم عوض کنند.
هر دو فناوریNFC و RFIDبسیار به هم شبیه هستن ولی RFIDپیش از NFC طراحی شده و به همین دلیل شهرت بیشتری نسبت به NFCدارد.
طراحی این برچسب ها کار آن چنان دشواری نیست. مسیر انتقال هم، موج کوتاه رادیوی است.
در عین حال فرستنده به نحوی تنظیم میشود که اطلاعات اون توسط RFID readerیاNFC reader خونده بشه.در فناوری NFCبه تازگی برچسب هایی طراحی شدن که از میدان مغناطیس برای فعال سازی و ارسال اطلاعات استفاده میکنن.البته خیلی ها هم، فناوری NFC رو با بلوتوث مقایسه می کنن.ولی باید گفت هر کدوم از این فناوری ها کاربرد مخصوص خودشون رو دارن، و تفاوت زیادی بین اونها وجود داره.
ولی NFC کجاها کاربرد داره؟ و آیا فکر میکنید تا به امروز از این تکنولوژی استفاده کردید یا نه؟
کاربردهای NFCبه سه دسته تقسیم میشه: اولانتقال اطلاعات: مثل زمانی که فایلی رو از یک گوشی به گوشی دیگه منتقل میکنیم.دوم هماهنگی: مثل زمانیکه اطلاعات شبکه ایکه بهش متصل هستیم رو عینا به گوشی یا دستگاه دیگه ای منتقل میکنیم.وسومداد و ستد:که به همه ی تراکنش های مالی مربوط به خرید و فروش اطلاق میشه.
بهتره کاربردهای NFCرو با چند مثال در زندگی روزمره بگیم. شما از مکانیزم آژیرهای ضد سرقت در فروشگاه ها مطلع هستید؟ خیلی از فروشگاه ها برای جلوگیری از سرقت کالاهاشون از همین فناوری استفاده میکنند.
تا حالا به گیره های متصل به اجناس فروشگاه ها توجه کردید؟ این گیره ها میتونه حاوی همون برچسب های RFID یا حتیNFCباشه.اگر پول کالایی که توسط مشتری انتخاب شده قبلا توی صندوق پرداخت نشده باشه این برچسب ها اطلاعات عدم خرید کالا توسط مشتری رو به دستگاه های آژیر فروشگاه ارسال میکنند.
شاید شما شاغل باشید و هر روز برای ورود به محل کاری تون از کارت های پرسنلی استفاده میکنید تا به حال به سیستم شناسایی این کارت ها دقت کردید ؟ برای شناسایی این کارت ها، معمولا باید اونها رو در فاصله ی چند سانتیمتری از دستگاه قرار داد . بعد از اینکه دستگاه اطلاعات هویتی صاحب کارت رو شناسایی کرد لحظه ی ورود و یا خروج در حافظه ی دستگاه ثبت میشه.معمولا این کارت ها هم میتونند از فناوری nfc استفاده میکنند.
اما سایر کاربردها چی میتونه باشه؟به طور کلی، از طریق این فناوری میشه هویت یک شخص یا جسم رو تشخیص داد!
حتی اگهی های استخدام هم میتونن مجهز به این سیستم باشن، کافیه متقاضی، گوشی تلفن خودش رو نزدیک اگهی استخدام ببره تا اطلاعاتش روی میکرو چیپ آگهی ثبت بشه، حالا کارفرما میتونه با توجه به اطلاعاتی که از افراد متقاضی به دست آورده، کارمند مورد نظر خودش رو انتخاب و با اون تماس بگیره.
یکی از کاربردهای این فناوری میتونه استفاده به عنوان کارت گارانتی باشه، با نصب برچسب های NFC میشه به راحتی زمان خرید و اطلاعات مشتری رو روی وسایل ثبت کردو مشتری میتونه با نزدیک کردن تلفن همراه خودش اطلاعات رو روی گوشی ببینه.
خوندن بروشور کالاهای مجهز به برچسب های NFC، باز و بسته کردن قفل ها فقط برای افراد مجاز ، ارسال کارت ویزیت و موارد اینچنین، میتونن همگی از کاربردهای این پروتکل باشن.ولی یکی از بحث های چالش برانگیز استفاده از این فناوری، زمانیکه صحبت از تراکنش های مالی میشه.
میتونیم به راحتی اطلاعات حساب بانکی رو به دستگاه همراهی که مجهز به NFC هست، منتقل کرد دیگه بعد از اون نیازی به کارتهای عابر بانکی نیست، کافیه که دستگاهتون رو که میتونه تلفن همراه، تبلت، دستگاه MP3 Playerویا حتی ساعت مچیتون باشه رو به NFC reader فروشگاه نزدیک کنید تا تراکنش های مالی، بعد از تشخیص هویت و اطلاعات بانکی مشتری ،با مجوز خریدار ،به راحتی صورت بگیره.
ولی چرا چالش بر انگیزه؟خوبهرجا که صحبت از مباحث مالی باشه، انگیزه ی افراد سودجو هم برای سو استفاده بالاتر میره! اینجاست که لازم میشه تا معایب و نقاط ضعف این فناوری بیشتر و دقیق تر بررسی بشه.یکی از بزرگترین اشکالاتی که میتونه برای این فناوری ایجاد بشه sniff(اسنیف) یا شنود غیر مجازه. یعنی افرادی بدون مجوز به اطلاعاتی که بین دو دستگاه رد و بدل میشه، دسترسی پیدا کنند و از اون بدتر میتونه،امکان تغییر این اطلاعات و ارسال اطلاعات ناسالم به گیرنده باشه.ولی اشکال دیگه ای که به راحتی ایجاد میشه تخریب و از بین بردن کامل سیگنالهای ارتباطیه این پروتکله. NFC forum اسم یهمجمعیه که توسعه این پروتکل و وضع استاندارهای اون رو به عهده داره.
و اما پاسخ این مجمع در مقابل نقاط ضعف این فناوری تا به امروز چی بوده؟
اعضای این مجمع معتقدند که حفظ امنیت در استفاده از این پروتکل، به عهده ی فردیه که از اون استفاده میکنه. ولی شاید بهتر این بود که از ابتدا، استفاده از استاندارد های انتقال اطلاعات، روی این پروتکل اعمال میشد و اطلاعات از کانال امنی منتقل میشدند.
در حال حاضر چنانچه از این فناوری در تراکنش های مالی استفاده بشه رمز گذاری باید از طرف بانک مقصد روی اطلاعات کارت NFC و تجهیزات دیجیتالیه مجهز به NFC ی کاربر قرار گرفته باشه ، ولی چنانچه بانک ها این رمز نگاری رو روی اطلاعات مشتریان خودشون قرار نداده باشند به راحتی اطلاعات بانکی افراد مورد سودجویی قرار میگیرهو تازه باز هم باید امیدوار بود تا فروشندگان هم، از ارسال اطلاعات بصورت رمز شده استفاده کنند.خوب شاید بهتر بود این مجمع استاندارد رمز نگاری SSL رو از ابتدا خودش روی این پروتکل اعمال میکرد.
ولی درعین حال اعضای این مجمع اعلام میکنند که برد انتقال اطلاعات از طریق NFC رو در حد چند سانتی متر کاهش داده اند. و معتقدند که کاهش فاصله در انتقال اطلاعات به کمتر از ۱۰ سانتی متر یک تمهید در برابر شنودهای غیرمجاز محسوب میشه.در حالی که با تجهیزات پیشرفته و تقویت کننده، امکان شنود برای افراد غیر مجاز در فاصله های دورتر هم امکان پذیره.
ولی در عین حال با توجه به معایب و محاسن این تکنولوژی، باید به این نکته اشاره کنیم که اغلب فروشنده ها تمایل زیادی دارند تا مشتریانشون از این تکنولوژی برای پرداخت های خودشون استفاده کنند.چرا که از این طریق میشه یه سری اطلاعات تبلیغاتی رو برای مشتری ارسال کرد و در عین حال سلایق خرید مشتری هم به راحتی ثبت میشه.
ولی دنیای دیجیتال آینده تا چه اندازه از این فناوری استقبال میکنه؟
هر روز شاهد گجت ها و ابزارهایی هستیم که از فناوری NFCبهره میبرند. به عنوان مثال شرکتی،ماوس کنترل از راه دوری رو با استفاده از این فناوری طراحی کرده به نحوی که برای معرفی ماوس به کامپیوتر تنها کافیه اون روروی کامپیوتر مجهز به nfc قرار بدید تا بلافاصله ماوس توسط کامپیوتر شناسایی بشه.
در همین رابطه پریزهای برقی مجهز به همین فناوری طراحی شده به نحوی که اگر شما بیرون از خانه مشغول شارژ دستگاه دیجیتالی خودتون باشید، هزینه ی استفاده از برق از حساب شما کسر میشه. روش کار هم چندان پیچیده نیست این پریز های با استفاده از nfcبه اطلاعات حساب بانکی مصرف کننده برق متصل شده و بنا به میزان استفاده ی کاربر، هزینه از حساب بانکی مشتری کسر میشه.
فناوری NFCتوی دنیای پرینترها هم نفوذ کرده، یک شرکت کره ای با پشتیبانی از همین فناوری تونستهپرینتر جیبی ای رو طراحی کنه.
به نحوی که کافیست عکس مورد نظر خودتان را بر روی گوشی تلفن همراه خود انتخاب کنید و بعد از نزدیک کردن گوشی به پرینتر به آسانی یک نسخه کاغذی از تصویر مورد نظرتان را میتوانید از پرینتر دریافت کنید.
با توجه به معایب و مزایایی که این تکنولوژی به همراه داره خیلی ها معتقدند که این پروتکل به شکل فعلی نمیتواند موفق باشد و تغییر در اون لازم و ضروری می باشد، ولی عده ای همچنان از طرفداران این تکنولوژی هستند و معایب اون را چندان پر اهمیت نمیدونند. و در حد قابل قبولی کامل می دانند.
اطلاعات درایو ویندوز را به SSD انتقال دهیم؟
راه حل این کار ساده است و کاربران ویندوز میتوانند با تعداد محدودی قطعهی سختافزاری و برنامهی نرمافزاری از HDD به SSD مهاجرت کنند. کل این عملیات تنها ۱۵ دقیقه طول میکشد و پس از آن چند ساعت انتظار لازم است تا این پیادهسازی انجام شود.
برای این مهاجرت نیاز به اجزای زیر است:
در حال حاضر SSD درایوهای ساتا (SATA)، M2 و مینی- پیسیآی (Mini-PCIe) از انواع SSD رایج در بازار هستند. در وهلهی اول انتخاب نوع آنها ممکن است گیجکننده به نظر بیاید. اما تقریبا اکثر لپتاپها با استاندارد ساتا سازگاری دارند. در مورد اولترابوکها استاندارد M2 قابل قبول است و تعداد محدودی از نوت بوکهای قدیمی هم با مینی- پیسیآی هماهنگ هستند. احتمالا لپ تاپ شما در بیشتر قسمتها از یک اتصال ساتا استفاده میکند.
درایوهای ساتا در تمام لپ تاپها عرضی به اندازهی ۲.۵ اینچ دارند و ضخامت آنها بین ۷ تا ۹ میلیمتر متغیر است. نکتهای که در ادامه لازم است بدانید این که تمام SSDهای ۷ میلیمتری با اتصال ساتا در لپتاپ سازگار هستند. اما اتصال SSD با اندازهی ۹ میلیمتر تنها میتواند به دستگاهی متصل شود که اتصال آن هم ۹ میلیمتری باشد.
در مهاجرت به SSD با سه بخش مختلف نرمافزاری سر و کار داریم؛ نخست برنامهای که یک نسخهی پشتیبان از اطلاعات فعلی را تهیه کند. دوم برنامهای که حجم این اطلاعات را کاهش دهد و در نهایت برنامهای که اطلاعات کپی شده را به SSD انتقال دهد. برنامهی Macrium Reflect میتواند هر سه عملیات را با هم انجام دهد. این برنامه با ایجاد یک نسخهی پشتیبان از هارد میزبان، حجم اطلاعات را کاهش داده و سپس آنها را به SSD انتقال میدهد. پس اولین کار نصب این نرمافزار است.
روند نصب این نرمافزار ساده و راحت است. پس از دانلود برنامه، روی فایل RsflectDL.exe دو بار کلیک میکنیم. فایل در حال اجرا، Macrium Reflect را دانلود و سپس نصب میکند. روی گزینههای Next پشت سر هم کلیک کنید و شرایط مجوز نرمافزار را Accept کنید.
برای نصب و دانلود فایلهای Windows PE گزینههای پیشفرض را انتخاب کنید. فرآیند دانلود ۵۳۰ مگابایت داده حدود ۱۰ دقیقه طول میکشید. پس از آن Reflect یک نسخه از Windows PE قابل بوت را ایجاد میکند.
در این مرحله باید یک فلش یواسبی (یا دیویدی خام) و یک هارد اکسترنال را به سیستم متصل کنید. سپس Macrium Reflect اجرا میشود.
در اینجا مطمئن شوید که نسخهی قابل بوت در مسیر فلش یا دیویدی ذخیره میشود. به خاطر داشته باشید که اطلاعات بازیابی شده تنها روی سیستمی که در آن ذخیره شدهاند قابل اجرا هستند.
پس از ایجاد برنامهی قابل بوت، لازم است فایلهای اضافی خود را حذف کنید. چرا که فضای SSD اغلب کمتر از HDD است. ویندوز ۱۰ به تنهایی ۱۶ گیگابایت فضا در نسخه ۳۲ بیتی و ۲۰ گیگابایت فضا در نسخهی ۶۴ بیتی اشغال میکند.
در این مرحله نیاز دارید تا اندازهی فایلهای موجود در HDD را کاهش دهید تا در فضای SSD جا شوند. برای مثال اگر فضای SSD شما ۱۲۰ گیگابایت است و HHD سیستم شما ۲۰۰ گیگابایت فضا دارد، باید ۸۰ گیگابایت از اطلاعات خود را پاک کنید- حتی توصیه میشود که دادههای بیشتری را حذف کنید.
روشهای زیادی برای کاهش حجم اطلاعات وجود دارد. استفاده از نرمافزارهایی مانند WinDirStat و CCleaner و دیگر برنامههای مشابه میتواند در این رابطه مفید باشد. البته استفاده از نرمافزار WinDirStat و ابزار Disk Cleanup ویندوز بیشتر توصیه میشود. WinDirStat کمک میکند تا فایلهای زاید از روی درایو هارد شما پاک شود و در کنار آن Disk Cleanup فایلهایی را که توسط WinDirStat حذف نشدهاند را پاک میکند.
روش کار WinDirStat این گونه است که اطلاعات ذخیره شده در درایو را به صورت شماتیکوار نشان میدهد. به عنوان مثال اطلاعات ذخیره شده نمایشی به این شکل خواهند داشت:
مربعها و مستطیلهای رنگی نشان دهندهی بلوک دادهها هستند. هر رنگی نوع فایل را نشان میدهد. اندازهی بلوکها هم بیانگر میزان فضای اشغال شده توسط فایل است. هنگام پاک کردن فایل، کاربران باید احتیاط لازم را به کار برند. برای پاک کردن یک فایل لازم است که روی آن راست کلیک کرده و آن را از منوی زمینه حذف کرد.
Windows Disk Cleanup از مفیدترین ابزارهای موجود برای پاکسازی درایو هارد است. این ابزار نه تنها کشهای مختلف ویندوز را پاکسازی میکند بلکه بقایای به جا مانده از نصب ویندوزهای قبلی را هم حذف میکند.
ویندوز مدام در حال ایجاد نسخهی پشتیبان از سیستم عامل است. همین امر باعث میشود که حجم قابل توجهی از فضای سیستم اشغال شود. از این رو اگر گزینهی دیگری ندارید، سعی کنید تا برخی از این برنامههای مربوط به بازیابی را حذف کنید.
این مرحله کاملا اختیاری است. مایکروسافت در ویندوز ۱۰ قابلیتی به نام Compact OS را معرفی کرده است تا بتواند در فضای ذخیرهسازی صرفه جویی به عمل آورد. این دستور به طور متوسط حجم سیستم عامل را بین ۱.۶ تا ۲.۶ گیگابایت (یا بیشتر) کاهش میدهد. ضمن این که به کاربران اجازه میدهد تا حداقل ۴ گیگابایت از فضای درایو را بازیابی کنند. برای اجرای این دستور، عبارت “cmd” را در Windows Search تایپ کنید. سپس روی Command Prompt راست کلیک کنید.
از دستور زیر برای فعالسازی Compact OS استفاده کنید:
به این ترتیب این دستور اجرا خواهد شد.
حالا نوبت آن رسیده است که یک نسخهی پشتیبان از ویندوز تهیه کنید. همزمان که هارد اکسترنال را به سیستم وصل کردهاید، برنامهی Macrium Reflect را باز کرده و از پنجرهی مرکزی گزینهی Create a backup را انتخاب کنید. سپس روی گزینهی Image this disk کلیک کنید.
ابتدا مطمئن شوید که پارتیشین مورد نظر را با گذاشتن علامت چک انتخاب کردهاید. هر پارتیشن بخشی از دادهها را شامل میشود و هر باکس پارتیشن موجود در درایو هارد را نمایش میدهد. تمام پارتیشنها به طور پیشفرض در حالت انتخاب قرار دارند. چنانچه نمیخواهید یکی یا بعضی از پارتیشنهای انتخاب شده در این فهرست باشند، علامت چک کنار آن را بردارید.
در مرحلهی دوم Folder را انتخاب کنید. البته این گزینه هم به طور پیشفرض انتخاب شده است.
در مرحلهی ۳ روی سه نقطهی کنار Folder کلیک کنید و در آنجا مسیر هارد اکسترنال خود را قرار دهید.
در نهایت در مرحلهی ۴، Finish را انتخاب کنید تا فرآیند ایجاد نسخهی پشتیبان، آغاز به کار کند.
برای بسیاری از کاربران این مرحله، سادهترین قسمت کار است. فقط کافی است HHD را بردارید و SSD را جایگزین آن کنید.
حالا سیستم خود را ریاستارت کرده و آن را از روی فلش یا دیویدی بوت کنید. در ادامه به جای این که ویندوز بالا بیاید، نرمافزار Macrium Reflect فایل image بازیابی شده را اجرا میکند. تب Restore را از بالا انتخاب کرده و از طریق Browse for an image file to restore فایل image را پیدا کنید. سپس درایو اکسترنال را انتخاب کرده و نسخهی پشتیبان را راهاندازی کنید.
حالا برای کپی اطلاعات روی SSD هر پارتیشن را انتخاب کرده و با دراگ کردن به SSD انتقال دهید. در کمتر از یک ساعت یک نسخهی کامل از ویندوز روی SSD نصب شده است. نگران فایلهای pagefile.sys و hiberfil.sys هم نباشید. چرا که Macrium Reflect به صورت خودکار هر دو نوع فایل را حذف میکند و پارتیشنها را با فضای موجود در SSD هماهنگ میکند.
اخیرا انویدیا پردازندههای گرافیکی قدرتمند خود نظیر تسلا پی ۱۰۰ را به منظور استفاده در کاربردهایی نظیر یادگیری ماشین، رونمایی کرده که بسیار مورد استقبال واقع شده است. اما اینتل به عنوان بزرگترین تولیدکنندههای پردازنده بیکار ننشسته و تراشهی ۷۲ هستهای زئون فی ۷۲۹۰ را برای استفاده از در حوزهی یادگیری ماشین رونمایی کرده است.
اینتل تراشهی ۷۲ هستهای زئون فی ۷۲۹۰ خود را با هدف استفاده در کاربردهایی نظیر یادگیری ماشین رونمایی کرده است. این کمپانی مدعی است که زئون فی قادر است تا قدرتی برابر با پردازندههای گرافیکی انویدیا را در حوزهی یادگیری ماشین به کاربران ارائه کند، در حالی که زئون فی در شماری از حوزهها نیز دست بالا را در اختیار دارد.
قرار بود زئون فی به همراه Larrabee، پردازندهی گرافیکی اصلی اینتل راهی بازار شود، اما این پروژه پس از چندین بار به تعویق افتادن، بالاخره در سال ۲۰۰۹ میلادی به صورت کامل کنار گذاشته شد، اما اینتل ایدهی توسعهی زئون فی را کنار نگذاشت.
همانطور که اشاره کردیم، زئون فی با هدف مقابله با محصولات انویدیا راهی بازار شده که اخیر سر و صدای بسیاری را در حوزههایی نظیر بازی و یادگیری ماشین، بله راه انداخته است.
البته باید به این موضوع اشاره کرد که زئون فی تاکنون به عنوان یکی از بهترین گزینهها برای توسعهی ابررایانهها و سرورها در موسسات آموزشی و کمپانیهای متعدد مورد استفاده قرار گرفته است، اما اینتل با معرفی نسل جدید این تراشه که از وجود ۷۲ هستهی پردازشی بهره میبرد، درصدد رقابت با پردازندههای گرافیکی انویدیا در حوزهی یادگیری ماشین است.
تراشهی ۷۲ هستهای زئون فی ۷۲۹۰ را باید سریعترین تراشهی این کمپانی در تاریخ خواند. براساس اطلاعات ارائه شده این محصول از سپتامبر سال جاری میلادی با برچسب قیمت ۶,۲۹۴ دلاری راهی بازار خواهد شد که علاوه بر سریعترین، لقب گرانترین محصول اینتل را نیز به خود اختصاص داده است. اینتل در کنار این محصول، سه نسخهی دیگر از زئون فی را نیز رونمایی کرده که شامل نسخهی ۶۴ و ۶۸ هستهای میشود.
تراشههای زئون فی در برخی از سریعترین رایانههای جهان مورد استفاده قرار میگیرند. اینتل شماری از تراشههای نسل جدید خود را از ماهها پیش راهی بازار کرده است، اما این کمپانی مشخصات فنی و قیمت محصولات خود را برای اولین بار در جریان کنفرانس بین المللی ابررایانهها که در فرانکفورت آلمان برگزار میشود، اعلام کرد.
همانطور که در تصویر نیز مشاهده میکنید، این تراشه با ظاهری شبیه به یک کارت گرافیک تولید شده است. کاربران میتوانند از این تراشه به عنوان پردازندهی اصلی سیستم استفاده کرده یا آن را در کنار سایر پردازندههای موجود قرار دهند. برای مثال در ابررایانهها و سرورها این تراشه به عنوان یک پردازندهی کمکی برای پردازندهی اصلی که زئون E5 است، مورد استفاده قرار خواهد گرفت.
البته باید به این موضوع اشاره کرد که امکان استفاده از این تراشه در رایانههای معمولی نیز وجود دارد، اما نباید انتظار داشت تا رایانهی مجهز به این تراشه توانایی اجرای آخرین بازیهای منتشر شده را داشته باشد، چراکه زئون فی جدید با بهرهگیری از هستههای اتم تقویت شده برای انجام محاسبات و پردازشهای علمی توسعه یافته است.
تراشهی زئون فی جدید از حافظهی سه بعدی موسوم به Integrated Stacked Memory با ظرفیت ۱۶ گیگابایت بهره برده و میتواند از حافظهی رم DDR4 با ظرفیت بیش از ۳۸۴ گیگابایت نیز پشتیبانی کند. انرژی مصرف شده توسط این پردازنده ۲۴۵ وات است و فرکانس هر یک ازهستهها روی ۱.۵ گیگاهرتز تنظیم شده است.
ووشپارد به این موضوع اشاره کرده که پردازندهها در مقایسه با پردازندههای گرافیکی در کاربردهایی نظیر یادگیری ماشین و سرورها بسیار سریعتر هستند.
اینتل تراشهی جدید خود را در حوزهای نظیر یادگیری عمیق نیز مورد آزمایش قرار میدهد. این کمپانی علاوه بر انویدیا با پردازندههای گرافیکی، حضور رقبای دیگری را با تولید پردازندههای مخصوص یادگیری عمیق حس میکند که از جملهی آن باید به گوگل اشاره کرد که اخیرا پردازندهی TPU یا همان پردازندهی تنسور را رونمایی کرده است.
براساس برنامههای اینتل، این کمپانی در نظر دارد تا از حورهی تولید تراشه برای رایانهها فاصله گرفته و تراشههای جدید خود نظیر زئون فی را با فناوریهای جدیدی که به آنها دست یافته، پیونددهد.
باید دید که رقابت کمپانیها در مسیر توسعهی واحدهای پردازشی مورد استفاده در حوزههایی نظیر یادگیری عمیق، یادگیری ماشین و هوش مصنوعی به کجا ختم خواهد شد؟
حتما تاکنون نامی از پردازندههای ۱۰ یا ۱۲ یا ۱۸ هستهای شنیدهاید ولی مطمئنا این خبر برایتان تازگی دارد. موسسه تحقیقاتی UC Davis پردازندهای به نام KiloCore توسعه داده است که دربردارنده هزار هسته محاسباتی است و بسیاری از وظایف و کارهای پردازشی را در کمتر از یک ثانیه انجام میدهد.
با این پردازنده میتوان بسیاری از کارهای محاسباتی مانند رمزنگاری، محاسبات علمی خرد، انکدینگ ویدیوها را به طور موازی و در کمترین زمان ممکن تا کنون انجام داد. کارایی این پردازنده فوقالعاده و چشمگیر است. شما میتوانید ۱۱۵ میلیارد دستورالعمل را در یک ثانیه انجام دهید ولی فقط ۰.۷ وات مصرف انرژی داشته باشید. یعنی برای راهاندازی و اجرای این تراشه فقط به یک باتری قلمی AAA نیاز است. فعلا نباید منتظر تولید انبوه این محصول بود. این پردازنده با آزمایشگاههای IBM و در مقیاس ۳۲ نانومتری ساخته شده است در حالی که پردازندههای تجاری موجود در بازار از فناوریهای ۱۴ نانومتری استفاده میکنند. بنابراین؛ محققان و توسعهدهندهگان KiloCore به دنبال روشهایی برای کوچکتر کردن این واجد محاسباتی هستند. چیزی که از دل این خبر بیرون میآید؛ چشمانداز سالهای آینده است و اینکه شما روی دستگاههای همراهی مانند موبایل یک پردازنده با این سطح از کارایی داشته باشید و بتوانید چندین کار سنگین را سریع انجام دهید در حالی که مصرف باتری موبایل به کمترین حد ممکن خودش رسیده است.
منبع: www.netco.biz
امروزه بیش از ۱۰۰ تیم حرفهای در گوگل از یادگیری ماشینی در حوزههای مختلف و همچنین بهبود عملکرد برنامههای کاربردی محبوب استفاده میکنند. Street View، صندوق پستی و جستجوی صوتی همه این برنامهها به لطف یادگیری ماشینی به بهترین شکل عمل میکنند. اما در پس زمینه این نرمافزارهای محبوب، سختافزارهای گوگل قرار دارند که همانند خورشیدی میدرخشند. اگر به فعالیتهای سختافزاری گوگل نگاهی داشته باشیم، به خوبی مشاهده میکنیم که این شرکت با ساخت سختافزارهای ویژه مراکز دادهاش، بیگانه نیست. اما خبر طراحی یک پردازنده خاص، موضوع دیگری است.
این پردازنده خاص منظوره غول اینترنتی، یک واحد پردازش تانسو است که در اصل یک تراشه سفارشی ویژه یادگیری ماشینی است. در حالی که در ظاهر چنین به نظر میرسد که این پردازنده با هدف افزایش دقت وظایف هوش مصنوعی طراحی شده است، اما این چنین نیست. گوگل در ساخت این تراشه تمرکزش بر محاسبات خام بوده است. در نتیجه سعی کرده است مصرف انرژی این تراشه را به حداقل رسانده تا در یادگیری ماشینی عملکرد بهتری داشته باشد. اگر این پردازنده را به لحاظ مصرف انرژی با پردازندههای رایج بازار مورد بررسی قرار دهیم، مشاهده میکنیم که این پردازنده با همان مصرف انرژی سریعتر کار میکند.
پروژهای که نزدیک به یک سال مستتر بود!
گوگل نزدیک به یک سال پیش در سکوت کامل خبری کار روی پروژهای در ارتباط با شتابدهندگی پیشرفته در برنامههای کاربردی را آغاز کرد. پروژهای که بر مبنای یادگیری ماشینی عمل میکرد. ماحصل این پروژه گوگل یک واحد پردازشی تانسور TPU بود. یک ASIC سفارشی که بهطور خاص برای یادگیری ماشینی طراحی شده بود. تراشهای که به بهترین شکل با پروژه یادگیری ماشینی منبع باز TensorFlow یکپارچه شده است. گوگل با استفاده از این تراشه که مصرف انرژی آن بهینهسازی شده است، بسیاری از کارها را مدیریت کرده و فرآیندهایی همچون بهبود کیفیت نقشهها و افزایش ضریب اعتماد به آلفاگو که برای شرکت در مسابقه Go آماده شده بود را بهبود بخشید. این همان تراشهای بود که گوگل در بازی Go برای شکست قهرمان کرهای از آن استفاده کرد. تقریبا یک سال است که گوگل از این تراشهها در مراکز دادهای خودش استفاده میکند.
اما دو نکته جالب توجه در ارتباط با این تراشهها وجود دارد. اول آنکه معماری این تراشهها به گونهای است که از هر وات مصرفی برای یادگیری ماشینی به صورت بهینهسازی شدهای استفاده میکند. دوم آنکه گوگل دقت این تراشهها را کمی کاهش داده است. این کاهش دقت باعث شده است تا از تعداد ترانزیستورهای کمتری برای انجام عملیات استفاده شود. این ترکیب به گوگل این توانایی را داده است تا عملیات بیشتری را در هر ثانیه به درون سیلیکونها وارد کرده و از مدلهای یادگیری ماشینی قدرتمندتری استفاده کرده و این مدلها را بسط دهد. ماحصل این فعالیتها در غالب ارائه نتایج هوشمندانهای که به سرعت در حال رشد هستند به کاربران نشان داده میشود.
گوگل در ارتباط با دستاوردهای این شرکت در حوزه محاسبات پیشرفته گفته است: «هدف ما این است که به عنوان رهبری در صنعت یادگیری ماشینی شناخته شویم و نوآوریهایی که در این زمینه به وجود میآوریم را در اختیار مصرف کنندگان خودمان قرار دهیم. ساخت تراشههای TPU که در زیرساختهای گوگل مورد استفاده قرار میگیرد به ما اجازه میدهد تا قدرت گوگل در حوزه نرمافزارهایی همچون تانسورفلو و یادگیری ماشینی ابری را همراه با قابلیتهای شتاببخشی پیشرفته در اختیار توسعه دهندگان خود قرار دهیم. یادگیری ماشینی در حال تغییر این رویکرد است که چگونه توسعهدهندگان توانایی ساخت برنامههای هوشمندی را دارند که مزایایی را هم برای مصرف کنندگان و هم برای مشتریان به وجود آورد. ما با اشتیاق دوست داریم، آیندهای را مشاهده کنیم که این امکانات به بهترین نحو در زندگی مردم وارد شده باشد.»
لازم به توضیح است که شما توانایی خرید این پردازندهها را ندارید، اما به خوبی تاثیرگذاری آنرا بر هوش مصنوعی و از همه مهمتر بر سرویسهای گوگل مشاهده خواهید کرد.
===============================www.netco.biz