Re: [情報] 傻眼貓咪? Intel Xeon處理器發現新漏洞
看板PC_Shopping作者w180112 ([NOOB]我超RETARD我超廢 )時間4年前 (2019/09/13 00:06)推噓22(22推 0噓 31→)留言53則, 19人參與討論串3/3 (看更多)
→
09/12 18:05,
09/12 18:05
推
09/12 18:35,
09/12 18:35
→
09/12 19:04,
09/12 19:04
→
09/12 19:13,
09/12 19:13
推
09/12 19:21,
09/12 19:21
中英夾雜很常見吧 待過業界你就知道了
噓
09/12 22:32,
09/12 22:32
推
09/12 22:41,
09/12 22:41
因為網路傳輸效能一直不夠啊
在高速網路下L1 L2存取次數、Cache miss都要津津計較
除此之外還有context switch、lock等等
探討下去是可以開一門研究所必修課的(雖然現在學校肯教的老師不多就是了)
最著名的就是Intel DPDK跟RDMA
兩個中心思想都是跳過Linux kernel的network stack
只是一個是利用userspace io另一個是offload 到網卡上
但是如此還不夠
現有一般OS處理網速平均最多到1Mpps
換算大約是500Mbps~12Gbps之間
由此可見嚴苛條件下現有普及的TCP/IP socket是連1Gbps都跑不到的
然而滿足10Gbps網路的最大頻寬是14Mpps
所以DPDK引入了polling機制取代中斷機制減少context switch、hugepage、使用了大量
的CPU專有指令集的API、DPDK flow director
programmer還得注意Cache miss、Data coherency、resource lcok
RDMA更激進
直接藉由網路卡offload packet
其中rdma read跟write operation更是會將雙方的memory addr給出來
但是因為CPU access memory的latency非常高
如果說packet一收到就馬上塞進L3 cache就可以減少access時間
所以DDIO才有其價值
至於原文的攻擊手法我不太清楚
不過RDMA是基於信任原則的連線
初始化時還得透過傳統的socket 去開port
所以對一般DC應該不會有太大影響
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.137.241.158 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1568304390.A.659.html
→
09/13 00:15,
4年前
, 1F
09/13 00:15, 1F
推
09/13 00:25,
4年前
, 2F
09/13 00:25, 2F
推
09/13 00:42,
4年前
, 3F
09/13 00:42, 3F
推
09/13 00:47,
4年前
, 4F
09/13 00:47, 4F
推
09/13 00:54,
4年前
, 5F
09/13 00:54, 5F
推
09/13 01:05,
4年前
, 6F
09/13 01:05, 6F
推
09/13 01:12,
4年前
, 7F
09/13 01:12, 7F
→
09/13 01:12,
4年前
, 8F
09/13 01:12, 8F
→
09/13 01:12,
4年前
, 9F
09/13 01:12, 9F
→
09/13 01:12,
4年前
, 10F
09/13 01:12, 10F
→
09/13 01:12,
4年前
, 11F
09/13 01:12, 11F
→
09/13 01:12,
4年前
, 12F
09/13 01:12, 12F
→
09/13 01:12,
4年前
, 13F
09/13 01:12, 13F
只靠多核也擋不了太多 你看看intel在DPDK裡面加了多少東西...XD
這也是一直以來效能取向時不太推AMD的原因之一(?
另一個主要也是因為兩家CPU的NUMA長不一樣
而且現在要考慮的已經是100~800Gbps的事情了
Gbps真的是很容易滿足的一件事
※ 編輯: w180112 (36.224.4.57 臺灣), 09/13/2019 01:32:45
推
09/13 01:52,
4年前
, 14F
09/13 01:52, 14F
→
09/13 01:52,
4年前
, 15F
09/13 01:52, 15F
推
09/13 02:01,
4年前
, 16F
09/13 02:01, 16F
→
09/13 02:01,
4年前
, 17F
09/13 02:01, 17F
→
09/13 02:01,
4年前
, 18F
09/13 02:01, 18F
推
09/13 06:31,
4年前
, 19F
09/13 06:31, 19F
→
09/13 06:32,
4年前
, 20F
09/13 06:32, 20F
→
09/13 06:34,
4年前
, 21F
09/13 06:34, 21F
→
09/13 06:34,
4年前
, 22F
09/13 06:34, 22F
→
09/13 06:34,
4年前
, 23F
09/13 06:34, 23F
所以大都只推Intel網卡 連Mellanox用的人都少
→
09/13 06:37,
4年前
, 24F
09/13 06:37, 24F
電信業用的比較多 不過大都還在POC階段
→
09/13 06:37,
4年前
, 25F
09/13 06:37, 25F
→
09/13 06:37,
4年前
, 26F
09/13 06:37, 26F
小弟不才寫了兩個其中一個opensource的side project
那個opensource的就是用實作在VM中的DPDK虛擬化小烏龜
實現4000人同時使用
不過小封包只有5G的效能就是了 不知道是不是CPU太舊跟VM中無法做flow director以及
ha
sh有關
沒有Opensource的那個是一個gateway 使用flow director就可以到接近10G
不過我現在改去寫RDMA 的分散式系統了XD
不然其實整個DPDK水很深 寫了那麼久功能也才用過一半多而已
推
09/13 07:20,
4年前
, 27F
09/13 07:20, 27F
這兩個功能取向還是不太一樣
DPDK可以做的事情還是比較多
ebpf再怎麼複雜也不能實作出一整套protocol
→
09/13 07:21,
4年前
, 28F
09/13 07:21, 28F
純forwarding Mellanox 的DPDK網卡號稱可以跑200G 實際上如何就不知道了
※ 編輯: w180112 (36.224.11.147 臺灣), 09/13/2019 09:23:06
※ 編輯: w180112 (36.224.11.147 臺灣), 09/13/2019 09:28:48
推
09/13 15:03,
4年前
, 29F
09/13 15:03, 29F
→
09/13 15:04,
4年前
, 30F
09/13 15:04, 30F
→
09/13 15:04,
4年前
, 31F
09/13 15:04, 31F
推
09/13 15:33,
4年前
, 32F
09/13 15:33, 32F
推
09/13 15:37,
4年前
, 33F
09/13 15:37, 33F
→
09/13 15:37,
4年前
, 34F
09/13 15:37, 34F
推
09/13 16:32,
4年前
, 35F
09/13 16:32, 35F
→
09/13 16:32,
4年前
, 36F
09/13 16:32, 36F
推
09/13 16:49,
4年前
, 37F
09/13 16:49, 37F
→
09/13 16:49,
4年前
, 38F
09/13 16:49, 38F
→
09/13 18:05,
4年前
, 39F
09/13 18:05, 39F
→
09/13 19:16,
4年前
, 40F
09/13 19:16, 40F
推
09/13 19:29,
4年前
, 41F
09/13 19:29, 41F
推
09/13 20:31,
4年前
, 42F
09/13 20:31, 42F
推
09/13 23:57,
4年前
, 43F
09/13 23:57, 43F
→
09/13 23:59,
4年前
, 44F
09/13 23:59, 44F
→
09/14 00:01,
4年前
, 45F
09/14 00:01, 45F
→
09/14 00:01,
4年前
, 46F
09/14 00:01, 46F
推
09/14 08:53,
4年前
, 47F
09/14 08:53, 47F
→
09/14 08:53,
4年前
, 48F
09/14 08:53, 48F
→
09/14 08:53,
4年前
, 49F
09/14 08:53, 49F
推
09/14 17:59,
4年前
, 50F
09/14 17:59, 50F
推
09/14 18:12,
4年前
, 51F
09/14 18:12, 51F
→
09/14 18:13,
4年前
, 52F
09/14 18:13, 52F
推
09/17 21:11,
4年前
, 53F
09/17 21:11, 53F
討論串 (同標題文章)
本文引述了以下文章的的內容:
完整討論串 (本文為第 3 之 3 篇):