每個雜湊的長期成本較低的是什麼:LTC、BTC 或其他山寨幣?
我試圖了解隨著時間的推移使用萊特幣與比特幣進行雜湊運算的成本。該理論認為,具有最佳長期安全前景(通過雜湊)的網路將設定一個可能影響其自身價格的標準。
具體來說,我想比較
- 資本支出(合理的採礦硬體 ASIC 與 GPU)
- OPEX(電氣等)
假設我要將 BTC/Litecoin 採礦與礦石採礦進行比較。一旦礦石被提取和提純,除了保護儲存黃金的設施外,不需要更多的成本。
很明顯,採礦過程取決於技術(ASIC 與 GPU)。我不清楚的是,一旦技術成熟,哪種方法更有可能提高維護和保護網路的長期效率。
我懷疑 scrypt -vs- sha256 實現將有不同的電源要求,我想了解從長遠來看哪個對環境更“環保”。
任何有關的資訊
- 目前採礦設備的能源效率成本
- 未來採礦設備的成本和預計的效率
會很有趣。
scrypt 的設計目標之一是使 CPU 和 GPU 性能平衡,這意味著它更多地依賴於記憶體速度。
GPU有一個可靠的工作,據我所知CPU沒有任何優勢。
但這確實導致基本上不可能使用 ASIC 進行 scrypt 探勘,除非它添加了大量記憶體和記憶體通道,這是一個巨大的設計問題。除非用於 scrypt 的 GPU 探勘非常有利可圖,否則不太可能。
這也使得 Scrypt 對於相同數量的有用散列來說更加耗能,但網路會適應,因為它需要更少的散列來解決問題(難度數)
哪個更環保?到目前為止,ASIC 挖礦的功耗與性能相比非常小,4.5w 為 4500MH,100w 為 275MH。
但同樣,網路平衡。
網路通過改變難度級別來適應,這意味著調整任何單個雜湊計算被接受為找到下一個塊的機會。如果網路的雜湊率下降,難度會降低,這意味著任何單個雜湊計算都有更大的機會找到一個塊。如果網路的雜湊率上升,難度就會上升,單個雜湊計算找到塊的機會就會降低。該系統是這樣設計的,因此無論網路中有多少雜湊器,平均每 X 分鐘就會找到一個塊。(X 的值取決於貨幣的固定設計,但是是硬編碼的,因此一旦設計固定就不會波動。)
換句話說,如果散列的結果小於某個值 Y,則接受散列作為找到一個塊。通過調整難度發生的事情是這個 Y 值上升或下降。因此,網路上更多的雜湊會增加難度並降低 Y。更少的雜湊會降低難度並提高 Y。