悶! 來分析SSD Freeze的成因

可否搭順風車問一下
SSD效能隨使用時間而下降
重新格式化是否會恢復??

謝謝大家
phillipe11 wrote:
可否搭順風車問一下
...(恕刪)


重新格式化應該是不會恢復 因為格式化東西都還在硬碟上
除非重新開卡
OCZ 支援論壇有提到 VERTEX SSD 可以用工具Sanitary Erase 做初始化 但有沒有用不知道 而且好像只能用在這幾款SSD上面


我只能說我們都花了老多錢投資在這個還沒有最佳化的產品上 並且冒著很大的風險

另外有個問題

話說一般的硬碟,也會遇到斷電問題

我本來打算要在入手SSD 然到又要收手了嗎?sandforce 嘆
weikichen wrote:
重新格式化應該是不會...(恕刪)


可以參考看看ATA的secure erase. 不過也要ssd有support才行.
有些硬碟工具會有啟動secure erase的功能. 等同重新開卡.

一般format是沒救的...但如果format加上Trim就會有救....這也要OS去support啊...
到頭來, OS對SSD的最佳化才是重點.

至於前幾樓對reset能不能解決掉速的問題這個小issue. 我的看法是...是對也是錯.
為什麼呢? 兩位發生掉速的情況不盡然相同. 一種可能是短期可恢復的情況,利用開機重整就好.一種卻是要長時間重整,沒機會在重開機就解決. 所以兩位都對.

因為兩位看到同一件事情,事實上卻是遇到不同現象. 就只是這樣而己.

Secure Erase可以用hdparm送出去....intel有support, SF不知道...但試試無妨
HDDErase 可以用來替SF 恢復出場的速度
請問之前 indilinx 有出一個 wiper 程式

對於恢復速度有幫助嗎?

謝謝
雖然我之前大致上有多少看過一些相關資訊, 不過樓主這篇是把來龍脈整理的最好的!!
對我來說,SSD我還是會用, 就看怎麼用而已. 傳統硬碟愈做愈精密, 問題也不見得會少.
不要想去要求一個「完美」的東西, 這個世界上什麼東西是完美的? 只要用到對的地方,
那就是好的~

在OS跟file system對SSD最佳化上, Linux社群已經開始很久了, 也可能最早會開始
實用化(所以我的SSD裝的是linux). 至於Windows, 有很多輔助的程式去幫助不要
那麼容易出現worse case.

案子被腰斬是很悶的....尤其不是自己的原故....
與失敗為伍者,天天靠盃都是別人的錯。 與成功為伍者,天天跟失敗切磋直到不再出錯。
ycweng wrote:
壓縮、寫入應該是有的...(恕刪)

其實不論狀況一還是狀況二,每一項都極度浪費系統資源的作法,把壓縮這過程拿掉可以省下很多事

拿掉dram改用flash作cache,加上cache跟data block不固定→整體flash顆粒壽命縮短

用壓縮來減低寫入資料大小→延長flash使用壽命

因為使用壓縮,過多手續大量浪費cache空間&額外增加讀寫次數→整體flash顆粒壽命縮短

怎麼看都不太像是個合理的設計,還是用加大容量的dram,再強化cache使用效率,提升整體效能比較實在

高速度大容量cache還真是必要之惡,cpu不也是朝這個走向(當然大容量cache造成精度下降也需要克服)

說真的,目前所有SSD solution,intel還真的是個不錯的選擇,台廠們加油啊,SSD全面普及化還需要台廠
whydan wrote:
其實不論狀況一還是狀況二,每一項都極度浪費系統資源的作法,把壓縮這過程拿掉可以省下很多事

拿掉dram改用flash作cache,加上cache跟data block不固定→整體flash顆粒壽命縮短

用壓縮來減低寫入資料大小→延長flash使用壽命

因為使用壓縮,過多手續大量浪費cache空間&額外增加讀寫次數→整體flash顆粒壽命縮短

怎麼看都不太像是個合理的設計,還是用加大容量的dram,再強化cache使用效率,提升整體效能比較實在
...(恕刪)

看來SF的架構設計,如果使用者的使用情境落在設定範圍內,有可能達到原廠宣稱效能,但是如果沒有,可能就如樓主所舉的比喻。但是這樣的設計,既然還跟資料特性有關,效能的起伏,應該是比較大的,碰到壓得動的資料,寫入速度變高,碰到壓不動的資料,便得拼實力。

架構設計上,SSD內部為了copy/block erase/write back,原本就至少要有跟erase block大小相同的buffer,而供壓縮用的buffer,如果是設定在若干page大小,則增加有限,這些只是可能的設計選項....至於SF內部確實的設計詳情如何,大概只有SF自家工程人員清楚嘍。

關於壓縮率、寫入overhead...等這部份的設計取捨,大抵都得跑幾組資料集的simulation才能得知,好比處理器的cache架構設計,也不是可直接斷定將line size調大、set associativity調高、一律用write back/write allocate就較好,還是得看simulation結果來作設計取捨。
ycweng wrote:
SF的架構設計,如果...(恕刪)


壓縮這事是見人見智. 但還是有它的道理在.
從表面的資料來看, Intel 寫入data量為原始資料的1.1倍, SF只有0.5倍..Magic!!!(其實也不用magic了,假像..)
就當它真的0.5倍好了. 這代表什麼事. 別人寫2次Flash的時間,sf只要一次.
所以速度就是兩倍快了.
問題來了. 壓縮也要時間的.
但SF的core可不是簡單的東西. 聽說是多核的 (眼熟吧! x86的CPU也沒幾顆是多核的). 加上hardware運算輔助. 壓縮速度可不是普通的快.
但還是要時間啊!沒錯...但只要壓縮時間小於Flash write page的時間就賺到了...

所以囉...這算不算密技..一個會破功的密技!

至於Flash 當cache這事. 嘿嘿嘿....嘿嘿嘿....(講了會被殺頭)
但前面人的看法是對的. 且隱藏著更多問題.

我其實在構思一種不用重開卡就能讓SSD回春的方法. 但身在這個位置上,不可說不可說..而且我也不會寫AP啦..我會搞hardware,搞firmware,就是不會搞AP.....看那天我想完整了再提報敝公司AP部門開發看看.

最後...輕鬆看...輕鬆讀...切莫因為意見不同argu起來...休閒娛樂而己
大家都是為SSD好...
記得SF好像是用tensilica的CPU吧, 可以依需求規劃CPU的部分功能跟架構......
關閉廣告
文章分享
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 12)

今日熱門文章 網友點擊推薦!