日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Kubernetes容器網(wǎng)絡(luò)基礎(chǔ)

馬哥Linux運(yùn)維 ? 來源:馬哥Linux運(yùn)維 ? 作者:馬哥Linux運(yùn)維 ? 2021-07-05 14:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Kubernetes 中要保證容器之間網(wǎng)絡(luò)互通,網(wǎng)絡(luò)至關(guān)重要。而 Kubernetes 本身并沒有自己實現(xiàn)容器網(wǎng)絡(luò),而是通過插件化的方式自由接入進(jìn)來。在容器網(wǎng)絡(luò)接入進(jìn)來需要滿足如下基本原則:

pod 無論運(yùn)行在任何節(jié)點(diǎn)都可以互相直接通信,而不需要借助 NAT 地址轉(zhuǎn)換實現(xiàn)。

node 與 pod 可以互相通信,在不限制的前提下,pod 可以訪問任意網(wǎng)絡(luò)。

pod 擁有獨(dú)立的網(wǎng)絡(luò)棧,pod 看到自己的地址和外部看見的地址應(yīng)該是一樣的,并且同個 pod 內(nèi)所有的容器共享同個網(wǎng)絡(luò)棧。

容器網(wǎng)絡(luò)基礎(chǔ)

一個 Linux 容器的網(wǎng)絡(luò)棧是被隔離在它自己的 Network Namespace中,Network Namespace 包括了:網(wǎng)卡(Network Interface),回環(huán)設(shè)備(Lookback Device),路由表(Routing Table)和 iptables 規(guī)則,對于服務(wù)進(jìn)程來講這些就構(gòu)建了它發(fā)起請求和相應(yīng)的基本環(huán)境。

而要實現(xiàn)一個容器網(wǎng)絡(luò),離不開以下 Linux 網(wǎng)絡(luò)功能:

網(wǎng)絡(luò)命名空間:將獨(dú)立的網(wǎng)絡(luò)協(xié)議棧隔離到不同的命令空間中,彼此間無法通信。

Veth Pair:Veth設(shè)備對的引入是為了實現(xiàn)在不同網(wǎng)絡(luò)命名空間的通信,總是以兩張?zhí)摂M網(wǎng)卡(veth peer)的形式成對出現(xiàn)的。并且,從其中一端發(fā)出的數(shù)據(jù),總是能在另外一端收到。

Iptables/Netfilter:Netfilter 負(fù)責(zé)在內(nèi)核中執(zhí)行各種掛接的規(guī)則(過濾、修改、丟棄等),運(yùn)行在內(nèi)核中;Iptables 模式是在用戶模式下運(yùn)行的進(jìn)程,負(fù)責(zé)協(xié)助維護(hù)內(nèi)核中 Netfilter 的各種規(guī)則表;通過二者的配合來實現(xiàn)整個 Linux 網(wǎng)絡(luò)協(xié)議棧中靈活的數(shù)據(jù)包處理機(jī)制

網(wǎng)橋:網(wǎng)橋是一個二層網(wǎng)絡(luò)虛擬設(shè)備,類似交換機(jī),主要功能是通過學(xué)習(xí)而來的Mac地址將數(shù)據(jù)幀轉(zhuǎn)發(fā)到網(wǎng)橋的不同端口上。

路由:Linux系統(tǒng)包含一個完整的路由功能,當(dāng)IP層在處理數(shù)據(jù)發(fā)送或轉(zhuǎn)發(fā)的時候,會使用路由表來決定發(fā)往哪里

基于以上的基礎(chǔ),同宿主機(jī)的容器時間如何通信呢? 我們可以簡單把他們理解成兩臺主機(jī),主機(jī)之間通過網(wǎng)線連接起來,如果要多臺主機(jī)通信,我們通過交換機(jī)就可以實現(xiàn)彼此互通,在 Linux 中,我們可以通過網(wǎng)橋來轉(zhuǎn)發(fā)數(shù)據(jù)。

在容器中,以上的實現(xiàn)是通過 docker0 網(wǎng)橋,凡是連接到 docker0 的容器,就可以通過它來進(jìn)行通信。要想容器能夠連接到 docker0 網(wǎng)橋,我們也需要類似網(wǎng)線的虛擬設(shè)備Veth Pair 來把容器連接到網(wǎng)橋上。

我們啟動一個容器:

docker run -d --name c1 hub.pri.ibanyu.com/devops/alpine:v3.8 /bin/sh

然后查看網(wǎng)卡設(shè)備:

docker exec -it c1 /bin/sh/ # ifconfigeth0 Link encap:Ethernet HWaddr 02AC00:02 inet addr:172.17.0.2 Bcast:172.17.255.255 Mask:255.255.0.0 UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:14 errors:0 dropped:0 overruns:0 frame:0 TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:1172 (1.1 KiB) TX bytes:0 (0.0 B)

lo Link encap:Local Loopback inet addr:127.0.0.1 Mask:255.0.0.0 UP LOOPBACK RUNNING MTU:65536 Metric:1 RX packets:0 errors:0 dropped:0 overruns:0 frame:0 TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:0 (0.0 B) TX bytes:0 (0.0 B)

/ # route -nKernel IP routing tableDestination Gateway Genmask Flags Metric Ref Use Iface0.0.0.0 172.17.0.1 0.0.0.0 UG 0 0 0 eth0172.17.0.0 0.0.0.0 255.255.0.0 U 0 0 0 eth0

可以看到其中有一張 eth0 的網(wǎng)卡,它就是 veth peer 其中的一端的虛擬網(wǎng)卡。 然后通過 route -n 查看容器中的路由表,eth0 也正是默認(rèn)路由出口。所有對172.17.0.0/16 網(wǎng)段的請求都會從 eth0 出去。 我們再來看 Veth peer 的另一端,我們查看宿主機(jī)的網(wǎng)絡(luò)設(shè)備:

ifconfigdocker0: flags=4163《UP,BROADCAST,RUNNING,MULTICAST》 mtu 1500 inet 172.17.0.1 netmask 255.255.0.0 broadcast 172.17.255.255 inet6 fe80:6aff93d2 prefixlen 64 scopeid 0x20《link》 ether 026a93:d2 txqueuelen 0 (Ethernet) RX packets 0 bytes 0 (0.0 B) RX errors 0 dropped 0 overruns 0 frame 0 TX packets 8 bytes 656 (656.0 B) TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

eth0: flags=4163《UP,BROADCAST,RUNNING,MULTICAST》 mtu 1500 inet 10.100.0.2 netmask 255.255.255.0 broadcast 10.100.0.255 inet6 fe80:2ff4b44 prefixlen 64 scopeid 0x20《link》 ether 56024b:44 txqueuelen 1000 (Ethernet) RX packets 7788093 bytes 9899954680 (9.2 GiB) RX errors 0 dropped 0 overruns 0 frame 0 TX packets 5512037 bytes 9512685850 (8.8 GiB) TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

lo: flags=73《UP,LOOPBACK,RUNNING》 mtu 65536 inet 127.0.0.1 netmask 255.0.0.0 inet6 ::1 prefixlen 128 scopeid 0x10《host》 loop txqueuelen 1000 (Local Loopback) RX packets 32 bytes 2592 (2.5 KiB) RX errors 0 dropped 0 overruns 0 frame 0 TX packets 32 bytes 2592 (2.5 KiB) TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

veth20b3dac: flags=4163《UP,BROADCAST,RUNNING,MULTICAST》 mtu 1500 inet6 fe80:9cff329 prefixlen 64 scopeid 0x20《link》 ether 329c03:29 txqueuelen 0 (Ethernet) RX packets 0 bytes 0 (0.0 B) RX errors 0 dropped 0 overruns 0 frame 0 TX packets 8 bytes 656 (656.0 B) TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

我們可以看到,容器對應(yīng)的 Veth peer 另一端是宿主機(jī)上的一塊虛擬網(wǎng)卡叫veth20b3dac,并且可以通過 brctl 查看網(wǎng)橋信息看到這張網(wǎng)卡是在 docker0 上。

# brctl showdocker0 8000.02426a4693d2 no veth20b3dac

然后我們再啟動一個容器,從第一個容器是否能 ping 通第二個容器。

$ docker run -d --name c2 -it hub.pri.ibanyu.com/devops/alpine:v3.8 /bin/sh$ docker exec -it c1 /bin/sh/ # ping 172.17.0.3PING 172.17.0.3 (172.17.0.3): 56 data bytes64 bytes from 172.17.0.3: seq=0 ttl=64 time=0.291 ms64 bytes from 172.17.0.3: seq=1 ttl=64 time=0.129 ms64 bytes from 172.17.0.3: seq=2 ttl=64 time=0.142 ms64 bytes from 172.17.0.3: seq=3 ttl=64 time=0.169 ms64 bytes from 172.17.0.3: seq=4 ttl=64 time=0.194 ms^C--- 172.17.0.3 ping statistics ---5 packets transmitted, 5 packets received, 0% packet lossround-trip min/avg/max = 0.129/0.185/0.291 ms

可以看到,能夠 ping 通,其原理就是我們 ping 目標(biāo) IP 172.17.0.3時,會匹配到我們的路由表第二條規(guī)則,網(wǎng)關(guān)為0.0.0.0,這就意味著是一條直連路由,通過二層轉(zhuǎn)發(fā)到目的地。

要通過二層網(wǎng)絡(luò)到達(dá)172.17.0.3,我們需要知道它的 Mac 地址,此時就需要第一個容器發(fā)送一個ARP廣播,來通過IP地址查找Mac。

此時 Veth peer 另外一段是 docker0 網(wǎng)橋,它會廣播到所有連接它的 veth peer 虛擬網(wǎng)卡去,然后正確的虛擬網(wǎng)卡收到后會響應(yīng)這個ARP報文,然后網(wǎng)橋再回給第一個容器。

以上就是同宿主機(jī)不同容器通過 docker0 通信,如下圖所示:

默認(rèn)情況下,通過 network namespace 限制的容器進(jìn)程,本質(zhì)上是通過Veth peer設(shè)備和宿主機(jī)網(wǎng)橋的方式,實現(xiàn)了不同 network namespace 的數(shù)據(jù)交換。 與之類似地,當(dāng)你在一臺宿主機(jī)上,訪問該宿主機(jī)上的容器的 IP 地址時,這個請求的數(shù)據(jù)包,也是先根據(jù)路由規(guī)則到達(dá) docker0 網(wǎng)橋,然后被轉(zhuǎn)發(fā)到對應(yīng)的 Veth Pair 設(shè)備,最后出現(xiàn)在容器里。

跨主機(jī)網(wǎng)絡(luò)通信

在 Docker 的默認(rèn)配置下,不同宿主機(jī)上的容器通過 IP 地址進(jìn)行互相訪問是根本做不到的。為了解決這個問題,社區(qū)中出現(xiàn)了很多網(wǎng)絡(luò)方案。同時 K8s 為了更好的控制網(wǎng)絡(luò)的接入,推出了 CNI 即容器網(wǎng)絡(luò)的 API 接口。

它是 K8s 中標(biāo)準(zhǔn)的一個調(diào)用網(wǎng)絡(luò)實現(xiàn)的接口,kubelet通過這個API來調(diào)用不同的網(wǎng)絡(luò)插件以實現(xiàn)不同的網(wǎng)絡(luò)配置,實現(xiàn)了這個接口的就是CNI插件,它實現(xiàn)了一系列的CNI API接口。目前已經(jīng)有的包括flannel、calico、weave、contiv等等。

實際上 CNI 的容器網(wǎng)絡(luò)通信流程跟前面的基礎(chǔ)網(wǎng)絡(luò)一樣,只是CNI維護(hù)了一個單獨(dú)的網(wǎng)橋來代替 docker0。這個網(wǎng)橋的名字就叫作:CNI 網(wǎng)橋,它在宿主機(jī)上的設(shè)備名稱默認(rèn)是:cni0。

cni的設(shè)計思想,就是:Kubernetes 在啟動 Infra 容器之后,就可以直接調(diào)用 CNI 網(wǎng)絡(luò)插件,為這個 Infra 容器的 Network Namespace,配置符合預(yù)期的網(wǎng)絡(luò)棧。

CNI 插件三種網(wǎng)絡(luò)實現(xiàn)模式:

overlay 模式是基于隧道技術(shù)實現(xiàn)的,整個容器網(wǎng)絡(luò)和主機(jī)網(wǎng)絡(luò)獨(dú)立,容器之間跨主機(jī)通信時將整個容器網(wǎng)絡(luò)封裝到底層網(wǎng)絡(luò)中,然后到達(dá)目標(biāo)機(jī)器后再解封裝傳遞到目標(biāo)容器。不依賴與底層網(wǎng)絡(luò)的實現(xiàn)。實現(xiàn)的插件有flannel(UDP、vxlan)、calico(IPIP)等等

三層路由模式中容器和主機(jī)也屬于不通的網(wǎng)段,他們?nèi)萜骰ネㄖ饕腔诼酚杀泶蛲ǎ瑹o需在主機(jī)之間建立隧道封包。但是限制條件必須依賴大二層同個局域網(wǎng)內(nèi)。實現(xiàn)的插件有flannel(host-gw)、calico(BGP)等等

underlay網(wǎng)絡(luò)是底層網(wǎng)絡(luò),負(fù)責(zé)互聯(lián)互通。容器網(wǎng)絡(luò)和主機(jī)網(wǎng)絡(luò)依然分屬不同的網(wǎng)段,但是彼此處于同一層網(wǎng)絡(luò),處于相同的地位。整個網(wǎng)絡(luò)三層互通,沒有大二層的限制,但是需要強(qiáng)依賴底層網(wǎng)絡(luò)的實現(xiàn)支持。實現(xiàn)的插件有calico(BGP)等等

我們看下路由模式的一種實現(xiàn) flannel Host-gw:

如圖可以看到當(dāng) node1上container-1 要發(fā)數(shù)據(jù)給 node2 上的 container2 時,會匹配到如下的路由表規(guī)則:

10.244.1.0/24 via 10.168.0.3 dev eth0

表示前往目標(biāo)網(wǎng)段 10.244.1.0/24 的 IP 包,需要經(jīng)過本機(jī) eth0 出去發(fā)往的下一跳ip地址為10.168.0.3(node2)。然后到達(dá) 10.168.0.3 以后再通過路由表轉(zhuǎn)發(fā) cni 網(wǎng)橋,進(jìn)而進(jìn)入到 container2。

以上可以看到 host-gw 工作原理,其實就是在每個 node 節(jié)點(diǎn)配置到每個 pod 網(wǎng)段的下一跳為pod網(wǎng)段所在的 node 節(jié)點(diǎn) IP,pod 網(wǎng)段和 node 節(jié)點(diǎn) ip 的映射關(guān)系,flannel 保存在etcd或者k8s中。flannel 只需要 watch 這些數(shù)據(jù)的變化來動態(tài)更新路由表即可。

這種網(wǎng)絡(luò)模式最大的好處就是避免了額外的封包和解包帶來的網(wǎng)絡(luò)性能損耗。缺點(diǎn)我們也能看見主要就是容器ip包通過下一跳出去時,必須要二層通信封裝成數(shù)據(jù)幀發(fā)送到下一跳。如果不在同個二層局域網(wǎng),那么就要交給三層網(wǎng)關(guān),而此時網(wǎng)關(guān)是不知道目標(biāo)容器網(wǎng)絡(luò)的(也可以靜態(tài)在每個網(wǎng)關(guān)配置pod網(wǎng)段路由)。所以 flannel host-gw 必須要求集群宿主機(jī)是二層互通的。

而為了解決二層互通的限制性,calico提供的網(wǎng)絡(luò)方案就可以更好的實現(xiàn),calico 大三層網(wǎng)絡(luò)模式與flannel 提供的類似,也會在每臺宿主機(jī)添加如下格式的路由規(guī)則:

《目標(biāo)容器IP網(wǎng)段》 via 《網(wǎng)關(guān)的IP地址》 dev eth0

其中網(wǎng)關(guān)的 IP 地址不通場景有不同的意思,如果宿主機(jī)是二層可達(dá)那么就是目的容器所在的宿主機(jī)的 IP 地址,如果是三層不同局域網(wǎng)那么就是本機(jī)宿主機(jī)的網(wǎng)關(guān)IP(交換機(jī)或者路由器地址)。 不同于 flannel 通過 k8s 或者 etcd 存儲的數(shù)據(jù)來維護(hù)本機(jī)路由信息的做法,calico是通過BGP 動態(tài)路由協(xié)議來分發(fā)整個集群路由信息。

BGP 全稱是 Border Gateway Protocol邊界網(wǎng)關(guān)協(xié)議,linxu原生支持的、專門用于在大規(guī)模數(shù)據(jù)中心為不同的自治系統(tǒng)之間傳遞路由信息。只要記住BGP簡單理解其實就是實現(xiàn)大規(guī)模網(wǎng)絡(luò)中節(jié)點(diǎn)路由信息同步共享的一種協(xié)議。而BGP這種協(xié)議就能代替flannel 維護(hù)主機(jī)路由表功能。

calico 主要由三個部分組成:

calico cni插件: 主要負(fù)責(zé)與kubernetes對接,供kubelet調(diào)用使用。

felix: 負(fù)責(zé)維護(hù)宿主機(jī)上的路由規(guī)則、FIB轉(zhuǎn)發(fā)信息庫等。

BIRD: 負(fù)責(zé)分發(fā)路由規(guī)則,類似路由器。

confd: 配置管理組件。

除此之外,calico 還和 flannel host-gw 不同之處在于,它不會創(chuàng)建網(wǎng)橋設(shè)備,而是通過路由表來維護(hù)每個pod的通信,如下圖所示:

可以看到 calico 的 cni 插件會為每個容器設(shè)置一個 veth pair 設(shè)備,然后把另一端接入到宿主機(jī)網(wǎng)絡(luò)空間,由于沒有網(wǎng)橋,cni 插件還需要在宿主機(jī)上為每個容器的 veth pair設(shè)備配置一條路由規(guī)則,用于接收傳入的IP包,路由規(guī)則如下:

10.92.77.163 dev cali93a8a799fe1 scope link

以上表示發(fā)送10.92.77.163的IP包應(yīng)該發(fā)給cali93a8a799fe1設(shè)備,然后到達(dá)另外一段容器中。

有了這樣的veth pair設(shè)備以后,容器發(fā)出的IP包就會通過veth pair設(shè)備到達(dá)宿主機(jī),然后宿主機(jī)根據(jù)路有規(guī)則的下一條地址,發(fā)送給正確的網(wǎng)關(guān)(10.100.1.3),然后到達(dá)目標(biāo)宿主機(jī),在到達(dá)目標(biāo)容器。

10.92.160.0/23 via 10.106.65.2 dev bond0 proto bird

這些路由規(guī)則都是felix維護(hù)配置的,而路由信息則是calico bird組件基于BGP分發(fā)而來。calico實際上是將集群里所有的節(jié)點(diǎn)都當(dāng)做邊界路由器來處理,他們一起組成了一個全互聯(lián)的網(wǎng)絡(luò),彼此之間通過BGP交換路由,這些節(jié)點(diǎn)我們叫做BGP Peer。

需要注意的是calico 維護(hù)網(wǎng)絡(luò)的默認(rèn)模式是 node-to-node mesh ,這種模式下,每臺宿主機(jī)的BGP client都會跟集群所有的節(jié)點(diǎn)BGP client進(jìn)行通信交換路由。這樣一來,隨著節(jié)點(diǎn)規(guī)模數(shù)量N的增加,連接會以N的2次方增長,會集群網(wǎng)絡(luò)本身帶來巨大壓力。

所以一般這種模式推薦的集群規(guī)模在50節(jié)點(diǎn)左右,超過50節(jié)點(diǎn)推薦使用另外一種RR(Router Reflector)模式,這種模式下,calico 可以指定幾個節(jié)點(diǎn)作為RR,他們負(fù)責(zé)跟所有節(jié)點(diǎn) BGP client 建立通信來學(xué)習(xí)集群所有的路由,其他節(jié)點(diǎn)只需要跟RR節(jié)點(diǎn)交換路由即可。這樣大大降低了連接數(shù)量,同時為了集群網(wǎng)絡(luò)穩(wěn)定性,建議RR》=2.

以上的工作原理依然是在二層通信,當(dāng)我們有兩臺宿主機(jī),一臺是10.100.0.2/24,節(jié)點(diǎn)上容器網(wǎng)絡(luò)是10.92.204.0/24;另外一臺是10.100.1.2/24,節(jié)點(diǎn)上容器網(wǎng)絡(luò)是10.92.203.0/24,此時兩臺機(jī)器因為不在同個二層所以需要三層路由通信,這時calico就會在節(jié)點(diǎn)上生成如下路由表:

10.92.203.0/23 via 10.100.1.2 dev eth0 proto bird

這時候問題就來了,因為10.100.1.2跟我們10.100.0.2不在同個子網(wǎng),是不能二層通信的。這之后就需要使用Calico IPIP模式,當(dāng)宿主機(jī)不在同個二層網(wǎng)絡(luò)時就是用overlay網(wǎng)絡(luò)封裝以后再發(fā)出去。如下圖所示:

IPIP模式下在非二層通信時,calico 會在node節(jié)點(diǎn)添加如下路由規(guī)則:

10.92.203.0/24 via 10.100.1.2 dev tunnel0

可以看到盡管下一條任然是node的IP地址,但是出口設(shè)備卻是tunnel0,其是一個IP隧道設(shè)備,主要有Linux內(nèi)核的IPIP驅(qū)動實現(xiàn)。會將容器的ip包直接封裝宿主機(jī)網(wǎng)絡(luò)的IP包中,這樣到達(dá)node2以后再經(jīng)過IPIP驅(qū)動拆包拿到原始容器IP包,然后通過路由規(guī)則發(fā)送給veth pair設(shè)備到達(dá)目標(biāo)容器。 以上盡管可以解決非二層網(wǎng)絡(luò)通信,但是仍然會因為封包和解包導(dǎo)致性能下降。如果calico 能夠讓宿主機(jī)之間的router設(shè)備也學(xué)習(xí)到容器路由規(guī)則,這樣就可以直接三層通信了。比如在路由器添加如下的路由表:

10.92.203.0/24 via 10.100.1.2 dev interface1

而node1添加如下的路由表:

10.92.203.0/24 via 10.100.1.1 dev tunnel0

那么node1上的容器發(fā)出的IP包,基于本地路由表發(fā)送給10.100.1.1網(wǎng)關(guān)路由器,然后路由器收到IP包查看目的IP,通過本地路由表找到下一跳地址發(fā)送到node2,最終到達(dá)目的容器。這種方案,我們是可以基于underlay 網(wǎng)絡(luò)來實現(xiàn),只要底層支持BGP網(wǎng)絡(luò),可以和我們RR節(jié)點(diǎn)建立EBGP關(guān)系來交換集群內(nèi)的路由信息。 以上就是kubernetes 常用的幾種網(wǎng)絡(luò)方案了,在公有云場景下一般用云廠商提供的或者使用flannel host-gw這種更簡單,而私有物理機(jī)房環(huán)境中,Calico項目更加適合。根據(jù)自己的實際場景,再選擇合適的網(wǎng)絡(luò)方案。

文章出處:【微信公眾號:馬哥Linux運(yùn)維】

責(zé)任編輯:gt

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 接口
    +關(guān)注

    關(guān)注

    33

    文章

    9603

    瀏覽量

    157678
  • Linux
    +關(guān)注

    關(guān)注

    88

    文章

    11822

    瀏覽量

    219607
  • 主機(jī)
    +關(guān)注

    關(guān)注

    0

    文章

    1065

    瀏覽量

    36858

原文標(biāo)題:超全面的 Kubernetes 容器網(wǎng)絡(luò)技能,運(yùn)維看后都說好

文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運(yùn)維】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    Kubernetes環(huán)境下容器日志的正確查看方式

    容器化環(huán)境中,日志收集和查看是運(yùn)維工程師日常工作中最頻繁的操作之一。很多運(yùn)維工程師習(xí)慣性地進(jìn)入容器內(nèi)部使用 tail -f 命令查看日志,這種方式在小規(guī)模環(huán)境下勉強(qiáng)可用,但當(dāng)容器數(shù)量增加、工作負(fù)載增加時,這種方式的效率低下且存
    的頭像 發(fā)表于 04-21 11:41 ?228次閱讀

    Kubernetes Ingress Controller對比解析

    Kubernetes集群對外提供服務(wù)時,Ingress是標(biāo)準(zhǔn)的服務(wù)暴露方式。Ingress資源定義了HTTP/HTTPS路由規(guī)則,而Ingress Controller則是這些規(guī)則的實現(xiàn)者
    的頭像 發(fā)表于 04-09 10:09 ?269次閱讀

    Docker容器網(wǎng)絡(luò)模式全解析

    容器網(wǎng)絡(luò)是Docker使用中最容易出問題的部分。容器之間怎么通信、容器怎么訪問外網(wǎng)、外部怎么訪問容器內(nèi)的服務(wù)——這三個問題搞不清楚,排查
    的頭像 發(fā)表于 02-26 16:39 ?502次閱讀

    Kubernetes存儲管理功能的落地實踐

    容器本身是無狀態(tài)的,Pod重啟后容器內(nèi)的數(shù)據(jù)全部丟失。數(shù)據(jù)庫、消息隊列、文件存儲這類有狀態(tài)服務(wù)跑在K8s上,必須解決持久化存儲問題。Kubernetes通過PersistentVolume(PV)、PersistentVolum
    的頭像 發(fā)表于 02-26 14:45 ?428次閱讀

    Kubernetes容器運(yùn)行時containerd與CRI-O如何選擇

    Kubernetes 1.24版本正式移除了dockershim,Docker不再是K8s的默認(rèn)容器運(yùn)行時。這個變化直接影響了所有K8s集群的運(yùn)維方式——升級到1.24+必須切換到containerd或CRI-O。
    的頭像 發(fā)表于 02-26 09:54 ?456次閱讀

    KubePi:開源Kubernetes可視化管理面板,讓集群管理如此簡單

    KubePi:開源Kubernetes可視化管理面板,讓集群管理如此簡單 在云原生時代,Kubernetes已成為容器編排的事實標(biāo)準(zhǔn),但其復(fù)雜性卻讓許多開發(fā)者望而卻步。KubePi作為一款現(xiàn)代化
    發(fā)表于 02-11 12:53

    Kubernetes kubectl命令行工具詳解

    kubectl是Kubernetes官方提供的命令行工具,作為與Kubernetes集群交互的主要接口,它通過調(diào)用Kubernetes API Server實現(xiàn)對集群資源的全面管理。在生產(chǎn)環(huán)境中,運(yùn)維工程師需要熟練掌握kubec
    的頭像 發(fā)表于 02-02 16:40 ?629次閱讀

    香港服務(wù)器支持Docker和Kubernetes嗎?

    Kubernetes的部署與運(yùn)行? 答案是肯定的,而且香港服務(wù)器由于其獨(dú)特的優(yōu)勢,往往是部署容器化應(yīng)用的絕佳選擇。 下面,我們將從技術(shù)支持、網(wǎng)絡(luò)優(yōu)勢、實踐指南和注意事項等方面,全面解析香港服務(wù)器與云原生技術(shù)的完美契合度。 一、
    的頭像 發(fā)表于 10-21 15:47 ?953次閱讀

    Kubernetes安全加固的核心技術(shù)

    在生產(chǎn)環(huán)境中,Kubernetes集群的安全性直接關(guān)系到企業(yè)數(shù)據(jù)安全和業(yè)務(wù)穩(wěn)定性。本文將從實戰(zhàn)角度,帶你掌握K8s安全加固的核心技術(shù)。
    的頭像 發(fā)表于 08-18 11:18 ?967次閱讀

    高效管理Kubernetes集群的實用技巧

    作為一名經(jīng)驗豐富的運(yùn)維工程師,我深知在日常的Kubernetes集群管理中,熟練掌握kubectl命令是提升工作效率的關(guān)鍵。今天,我將分享15個經(jīng)過實戰(zhàn)檢驗的kubectl實用技巧,幫助你像藝術(shù)家一樣優(yōu)雅地管理K8s集群。
    的頭像 發(fā)表于 08-13 15:57 ?1143次閱讀

    Kubernetes網(wǎng)絡(luò)模型詳解

    如果你也遇到過這些問題,恭喜你找對地方了。今天我將毫無保留地分享K8s網(wǎng)絡(luò)的核心原理和實戰(zhàn)經(jīng)驗。
    的頭像 發(fā)表于 08-13 15:52 ?905次閱讀

    基于eBPF的Kubernetes網(wǎng)絡(luò)異常檢測系統(tǒng)

    作為一名在云原生領(lǐng)域深耕多年的運(yùn)維工程師,我見過太多因為網(wǎng)絡(luò)問題導(dǎo)致的生產(chǎn)事故。傳統(tǒng)的監(jiān)控手段往往是事后諸葛亮,當(dāng)你發(fā)現(xiàn)問題時,用戶已經(jīng)在抱怨了。今天,我將分享如何利用 eBPF 這一革命性技術(shù),構(gòu)建一套能夠?qū)崟r檢測 Kubernetes
    的頭像 發(fā)表于 07-24 14:09 ?961次閱讀

    生產(chǎn)環(huán)境中Kubernetes容器安全的最佳實踐

    隨著容器化技術(shù)的快速發(fā)展,Kubernetes已成為企業(yè)級容器編排的首選平臺。然而,在享受Kubernetes帶來的便利性和可擴(kuò)展性的同時,安全問題也日益凸顯。本文將從運(yùn)維工程師的角度
    的頭像 發(fā)表于 07-14 11:09 ?970次閱讀

    樹莓派部署 Kubernetes:通過 UDM Pro 實現(xiàn) BGP 負(fù)載均衡!

    最近,我將家庭實驗室的架構(gòu)核心切換為一組樹莓派。盡管在樹莓派上運(yùn)行的Kubernetes發(fā)行版眾多,但在資源受限的設(shè)備上運(yùn)行Kubernetes時,控制平面的開銷是一個常見挑戰(zhàn)
    的頭像 發(fā)表于 06-25 18:00 ?1097次閱讀
    樹莓派部署 <b class='flag-5'>Kubernetes</b>:通過 UDM Pro 實現(xiàn) BGP 負(fù)載均衡!

    k8s網(wǎng)絡(luò)的基本介紹

    Kubernetes網(wǎng)絡(luò)是指在Kubernetes集群中不同組件之間進(jìn)行通信和交互的網(wǎng)絡(luò)架構(gòu)。
    的頭像 發(fā)表于 06-16 13:42 ?1069次閱讀
    朝阳区| 景德镇市| 北海市| 黔东| 苗栗县| 昂仁县| 玛纳斯县| 玉树县| 黎川县| 泰和县| 西和县| 射阳县| 报价| 河西区| 许昌县| 土默特左旗| 崇礼县| 建阳市| 蕲春县| 易门县| 耿马| 海林市| 汝阳县| 龙海市| 利辛县| 随州市| 遂川县| 桦甸市| 曲阳县| 沧州市| 察哈| 神木县| 沙坪坝区| 凤山县| 织金县| 泉州市| 钦州市| 肃北| 林甸县| 沁阳市| 长寿区|