Warning: error_log(/data/www/wwwroot/hmttv.cn/caches/error_log.php): failed to open stream: Permission denied in /data/www/wwwroot/hmttv.cn/phpcms/libs/functions/global.func.php on line 537 Warning: error_log(/data/www/wwwroot/hmttv.cn/caches/error_log.php): failed to open stream: Permission denied in /data/www/wwwroot/hmttv.cn/phpcms/libs/functions/global.func.php on line 537
讀:本文由梯度科技云管研發部高級工程師周宇明撰寫,共分為7章,緊密圍繞Prometheus的基本原理與開發指南展開介紹:
1.1.監控的作用 ★
為了構建穩定性保障體系,核心就是在干一件事:減少故障。
減少故障有兩個層面的意思,一個是做好常態預防,不讓故障發生;另一個是如果故障發生,要能盡快止損,減少故障時長,減小故障影響范圍。監控的典型作用就是幫助我們發現及定位故障。
監控的其他作用:日常巡檢、性能調優的數據佐證、提前發現一些不合理的配置。
之所以能做到這些,是因為所有優秀的軟件,都內置了監控數據的暴露方法,讓用戶可以對其進行觀測,了解其健康狀況:比如各類開源組件,有的是直接暴露了 Prometheus metrics 接口,有的是暴露了 HTTP JSON 接口,有的是通過 JMX 暴露監控數據,有的則需要連上去執行命令。另外,所有軟件都可以使用日志的方式來暴露健康狀況。
因此,可被監控和觀測,也是我們開發軟件時必須考慮的一環。
1.2.監控架構分類 ★
定義:可進行聚合計算的原子型數據,通常通過多個標簽值來確定指標唯一性。
特點:指標數據僅記錄時間戳和對應的指標數值,通常存儲在時間序列數據庫中(TSDB),存儲成本低,可用于渲染趨勢圖或柱狀圖,可靈活配置告警規則,對故障進行快速發現和響應;但是不適合用于定位故障原因。
實現方案:Zabbix、Open-Falcon、Prometheus
定義:離散事件,是系統運行時發生的一個個事件的記錄。
特點:日志數據可以記錄詳細的信息(請求響應參數、自定義文字描述、異常信息、時間戳等),一般用于排查具體問題;日志通常存儲在文件中,數據非結構化,存儲成本高,不適合作為監控數據的來源。
實現方案:ELK、Loki
定義:基于特定請求作用域下的所有調用信息。
特點:一般需要依賴第三方存儲,在微服務中一般有多個調用信息,如從網關開始,A服務調用B服務,調用數據庫、緩存等。在鏈路系統中,需要清楚展現某條調用鏈中從主調方到被調方內部所有的調用信息。不僅有利于梳理接口及服務間調用的關系,還有助于排查慢請求或故障產生的原因。
實現方案:jaeger、zipkin、Skywalking
企業級的開源解決方案,擅長設備、網絡、中間件的監控。
優點:
缺點:
Open-Falcon 最初來自小米,14 年開源,當時小米有 3 套 Zabbix,1 套業務性能監控系統 perfcounter。Open-Falcon 的初衷是想做一套大一統的方案,來解決這個亂局。
優點:
缺點:
Prometheus 的設計思路來自Borgmon,就像 Borgmon 是為 Borg 而生的,而 Prometheus 就是為 Kubernetes 而生的。提供了多種服務發現機制,大幅簡化了 Kubernetes 的監控。
Prometheus2.0版本開始,重新設計了時序庫,性能和可靠性都大幅提升。
優點:
缺點:
有兩種典型的部署方式,一種是跟隨監控對象部署,比如所有的機器上都部署一個采集器,采集機器的 CPU、內存、硬盤、IO、網絡相關的指標;另一種是遠程探針式,比如選取一個中心機器做探針,同時探測很多個機器的 PING 連通性,或者連到很多 MySQL 實例上去,執行命令采集數據。
Telegraf:
InfluxData 公司的產品,主要配合 InfluxDB 使用。Telegraf 也可以把監控數據推給 Prometheus存儲;
Telegraf 是指標領域的 All-In-One 采集器,支持各種采集插件,只需要使用這一個采集器,就能解決絕大部分采集需求;
Telegraf 采集的很多數據都是字符串類型,但如果把這類數據推給 Prometheus 生態的時序庫,比如 VictoriaMetrics、M3DB、Thanos 等,它就會報錯。
Exporter
Exporter是專門用于Prometheus 生態的采集器,但是比較零散,每個采集目標都有對應的 Exporter 組件,比如 MySQL 有 mysqld_exporter,Redis 有 redis_exporter,JVM 有 jmx_exporter。
Exporter 的核心邏輯,就是去這些監控對象里采集數據,然后暴露為 Prometheus 協議的監控數據。比如 mysqld_exporter,就是連上 MySQL,執行一些類似于 show global status 、show global variables 、show slave status 這樣的命令,拿到輸出,再轉換為 Prometheus 協議的數據;
很多中間件都內置支持了 Prometheus,直接通過自身的 /metrics 接口暴露監控數據,不用再單獨伴生 Exporter;比如 Kubernetes 中的各類組件,比如 etcd,還有新版本的 ZooKeeper、 RabbitMQ;
不管是Exporter還是支持Prometheus協議的各類組件,都是提供 HTTP 接口(通常是 /metrics )來暴露監控數據,讓監控系統來拉,這叫做 PULL 模型。
Grafana-Agent
Grafana 公司推出的一款 All-In-One 采集器,不但可以采集指標數據,也可以采集日志數據和鏈路數據。
如何快速集成各類采集能力的呢?Grafana-Agent 寫了個框架,方便導入各類 Exporter,把各個 Exporter 當做 Lib 使用,常見的 Node-Exporter、Kafka-Exporter、Elasticsearch-Exporter、Mysqld-Exporter 等,都已經完成了集成。對于默認沒有集成進去的 Exporter,Grafana-Agent 也支持用 PULL 的方式去抓取其他 Exporter 的數據,然后再通過 Remote Write 的方式,將采集到的數據轉發給服務端。
很多時候,一個采集器可能搞不定所有業務需求,使用一款主力采集器,輔以多款其他采集器是大多數公司的選擇。
Prometheus TSDB
Prometheus本地存儲經歷過多個迭代:V1.0(2012年)、V2.0(2015年)、V3.0(2017年)。最初借用第三方數據庫LevelDB,1.0版本性能不高,每秒只能存儲5W個樣本;2.0版本借鑒了Facebook Gorilla壓縮算法,將每個時序數據以單個文件方式保存,將性能提升到每秒存儲8W個樣本;2017年開始引入時序數據庫的3.0版本,并成立了Prometheus TSDB開源項目,該版本在單機上提高到每秒存儲百萬個樣本。
3.0版本保留了2.0版本高壓縮比的分塊保存方式,并將多個分塊保存到一個文件中,通過創建一個索引文件避免產生大量的小文件;同時為了防止數據丟失,引入了WAL機制。
InfluxDB
InfluxDB 針對時序存儲場景專門設計了存儲引擎、數據結構、存取接口,國內使用范圍比較廣泛,可以和 Grafana、Telegraf 等良好整合,生態是非常完備的。
不過 InfluxDB 開源版本是單機的,沒有開源集群版本。
M3DB
M3DB 是 Uber 的時序數據庫,M3 在 Uber 抗住了 66 億監控指標,這個量非常龐大。其主要包括4個組件:M3DB、M3 Coordinator、M3 Query、M3 Aggregator,我們當前產品中Prometheus的遠程存儲就是通過M3DB實現的。
用戶會配置數百甚至數千條告警規則,一些超大型的公司可能要配置數萬條告警規則。每個規則里含有數據過濾條件、閾值、執行頻率等,有一些配置豐富的監控系統,還支持配置規則生效時段、持續時長、留觀時長等。
告警引擎通常有兩種架構,一種是數據觸發式,一種是周期輪詢式。
數據觸發式,是指服務端接收到監控數據之后,除了存儲到時序庫,還會轉發一份數據給告警引擎,告警引擎每收到一條監控數據,就要判斷是否關聯了告警規則,做告警判斷。因為監控數據量比較大,告警規則的量也可能比較大,所以告警引擎是會做分片部署的,這樣的架構,即時性很好,但是想要做指標關聯計算就很麻煩,因為不同的指標哈希后可能會落到不同的告警引擎實例。
周期輪詢式,通常是一個規則一個協程,按照用戶配置的執行頻率,周期性查詢判斷即可,做指標關聯計算就會很容易。像 Prometheus、Nightingale、Grafana 等,都是這樣的架構。
生成事件之后,通常是交給一個單獨的模塊來做告警發送,這個模塊負責事件聚合、收斂,根據不同的條件發送給不同的接收者和不同的通知媒介。
監控數據的可視化也是一個非常通用且重要的需求,業界做得最成功的是Grafana,采用插件式架構,可以支持不同類型的數據源,圖表非常豐富,基本是開源領域的事實標準。
2.1.主要特點
2.2. 局限性
2.3. 架構剖析 ★
prometheus監控探針,共收錄有上千種Exporter,用于對第三方系統進行監控,方式是獲取第三方系統的監控數據然后按照Prometheus的格式暴露出來;沒有Exporter探針的第三方系統也可以自己定制開發。
不過Exporter種類繁多會導致維護壓力大,也可以考慮用Influx Data公司開源的Telegraf統一進行管理。使用Telegraf集成Prometheus比單獨使用Prometheus擁有更低的內存使用率和CPU使用率。
是支持臨時性job主動推送指標的中間網關。
使用場景:臨時/短作業、批處理作業、應用程序與Prometheus之間有防火墻或不在同一個網段;
不過該解決方案存在單點故障問題、必須使用PushGateway的API從推送網關中刪除過期指標。
可以使用Kubernetes的API獲取容器信息的變化來動態更新監控對象;
從Job、Exporter、PushGateway3個組件中通過HTTP輪詢的形式拉取指標數據;
本地存儲:直接保存到本地磁盤,從性能上考慮,建議使用SSD且不要保存超過一個月的數據;
遠程存儲:適用于存儲大量監控數據,支持的遠程存儲包括OpenTSDB、InfluxDB、M3DB、PostgreSQL等;需要配合中間層適配器進行轉換;
多維度數據模型的靈活查詢。
實際工作中使用Grafana,也可以調用HTTP API發送請求獲取數據;
獨立的告警組件,可以將多個AlertManager配置成集群,支持集群內多個實例間通信;
按照一定的時間間隔產生的一個個數據點,這些數據點按照時間戳和值的生成順序存放,得到了向量(vector)。
每條時間序列是通過指標名稱和一組標簽集來命名的。
矩陣中每一個點都可以稱之為一個樣本(Sample),主要有3方面構成:
指標(Metrics):包括指標名稱(__name__)和一組標簽集名稱;
時間戳(TimeStamp):默認精確到毫秒;
樣本值(Value):默認使用64位浮點類型。
時間序列的指標可以基于Bigtable設計為Key-Value存儲的方式:
Prometheus的Metrics可以有兩種表現方式(指標名稱只能由ASCII字符、數字、下劃線、冒號組成,冒號用來表示用戶自定義的記錄規則):
分別對應的查詢形式(以下兩個查詢語句等價):
所有PromQL語句必須包含至少一個有效表達式(至少一個不會匹配到空字符串的標簽過濾器),因此,以下三種示例是非法的:
用于返回在指定時間戳之前查詢到的最新樣本的瞬時向量。
高級應用:
瞬時偏移向量
高級應用:
只增不減,一般配合rate(統計時間區間內增長速率)、topk(統計top N的數據)、increase等函數使用;
increase(v range-vector)獲取區間向量的第一個和最后一個樣本并返回其增長量:
為什么increase函數算出來的值非33?真實計算公式:(360 - 327) / (1687922987 - 1687922882) * 120=37.71428571428571
irate(v range-vector)是針對長尾效應專門提供的用于計算區間向量的增長速率的函數,反應的是瞬時增長率,敏感度更高。長期趨勢分析或告警中更推薦rate函數。
rate(v range-vector) 求取的是每秒變化率,也有數據外推的邏輯,increase 的結果除以 range-vector 的時間段的大小,就是 rate 的值。
rate(jvm_memory_used_bytes{id="PS Eden Space"}[1m]) 與 increase(jvm_memory_used_bytes{id="PS Eden Space"}[1m])/60.0 是等價的
表示樣本數據可任意增減的指標;實際更多用于求和、取平均值、最大值、最小值。
without可以讓sum函數根據相同的標簽進行求和,但是忽略掉without函數覆蓋的標簽;如上圖,可以忽略掉id,只按照堆/非堆的區別進行內存空間求和。
用于描述數據分布,最典型的應用場景就是監控延遲數據,計算 90 分位、99 分位的值。
有些服務訪問量很高,每秒幾百萬次,如果要把所有請求的延遲數據全部拿到,排序之后再計算分位值,這個代價就太高了。使用 Histogram 類型,可以用較小的代價計算一個大概值。
Prometheus的Histogram類型計算原理:bucket桶排序+假定桶內數據均勻分布。
Histogram 這種做法性能有了巨大的提升,但是要同時計算成千上萬個接口的分位值延遲數據,還是非常耗費資源的,甚至會造成服務端 OOM。
數據解析:http://ip:9090/metrics prometheus_http_request_duration_seconds
在客戶端計算分位值,然后把計算之后的結果推給服務端存儲,展示的時候直接查詢即可。
Summary 的計算是在客戶端計算的,也就意味著不是全局(整個服務)的分位值,分位值延遲數據是進程粒度的。
負載均衡會把請求均勻地打給后端的多個實例。一個實例內部計算的分位值,理論上和全局計算的分位值差別不會很大。另外,如果某個實例有故障,比如硬盤問題,導致落在這個實例的請求延遲大增,我們在實例粒度計算的延遲數據反而更容易發現問題。
數據解析:http://ip:9090/metrics go_gc_duration_seconds
上述兩個查詢是等價的;同一個聚合語句中不可同時使用by和without,by的作用類似于sql語句中的分組(group by),without語義是:除開XX標簽,對剩下的標簽進行分組。
數學中稱為方差,用于衡量一組數據的離散程度:數據分布得越分散,各個數據與平均數的差的平方和越大,方差就越大。
標準差:用方差開算術平方根。
count:對分組中時間序列的數目進行求和
count_values:表示時間序列中每一個樣本值(value)出現的次數,實踐中一般用于統計版本號。
用于計算當前樣本數據值的分布情況,例如計算一組http請求次數的中位數:
僅用于瞬時向量之間,and(并且)、or(或者)、unless(排除)
內置函數absent扮演了not的角色;
absent應用場景,配置告警規則:
提供了對時間序列標簽的自定義能力。
label_replace(input_vector, "dst", "replacement", "src", "regex")
label_join(input_vector, "dst", "separator", "src_1", "src_2" ...)
resets函數用于統計計數器重置次數,兩個連續的樣本之間值減少,被認為是一次計數器重置,相當于是進程重啟次數。
預測時間序列v在t秒后的值
使用簡單的線性回歸計算區間向量v中各個時間序列的導數
計算區間向量內第一個元素和最后一個元素的差值:
最新的兩個樣本值之間的差值,如上圖例子,返回值為整數
要求sf > 0, tf <=1
霍爾特-溫特雙指數平滑算法,暫時想不到應用場景
返回區間向量中每個樣本數據值變化的次數,如果樣本值沒有變化就返回1;
prometheus提供度量標準process_start_time_seconds記錄每一個targets的啟動時間,該時間被更改則意味著進程重啟,可以發出循環崩潰告警:
expr: avg wtihout(instance) (changes{process_start_time_seconds [1h]}) > 3
調用成功會返回2XX狀態碼
resultType: matrix(區間向量) | vector(瞬時向量) | scalar | string
入參:PromQL表達式、時間戳、超時設置(可全局設置)
入參:PromQL表達式、起始時間戳、結束時間戳、查詢時間步長(不能超過11000)、超時設置(可全局設置)
啟動參數帶上--web.enable-admin-api
執行以下命令可對數據庫進行備份:
curl -X POST http://your_ip:9090/api/v1/admin/tsdb/snapshot
備份目錄:/prometheus/data/snapshot
刪除序列:http:// your_ip:9090/api/v1/admin/tsdb/delete_series
釋放空間:http:// your_ip:9090/api/v1/admin/tsdb/clean_tombstones
預先計算經常需要用到的或計算量較大的表達式,并將結果保存為一組新的時間序列。
抓取前依賴服務發現,通過relabel_configs的方式自動對服務發現的目標進行重新標記;
抓取后主要指標保存在存儲系統之前,依賴作業內的metrics_relabel_configs實現。
重寫instance實現告警同時顯示服務名+IP端口
將監控不需要的數據直接丟掉,不在prometheus保存,配置方法類似。
從左上開始,Prometheus 發送的警報到 Alertmanager;
(word不方便添加代碼塊,如果公眾號可以添加代碼塊,上圖內容可以單獨提供代碼)
關鍵配置參數:
prometheus.yml
alertmanager.yml
主要包括4個組件:M3DB、M3 Coordinator、M3 Query、M3 Aggregator
前有網友提出,想要用代碼監控一個接口,定時訪問它,如果接口返回值發生某些變化就提醒用戶。
于是,我寫了個簡單的腳本。
腳本編寫時,考慮的是放在目標網站的控制臺來執行。之所以這樣做,是因為如果放在頁面外部執行,往往需要補環境,費時費力。
// 變量聲明&定時器
let _timer=null;
let _subjects=[];
_timer=setInterval(()=> {
getData()
}, 60000);
// 接口訪問
function getData () {
return fetch("https://mail.126.com/xxxx", {
"xxx": {},
}).then((res)=> {
res.text().then((str)=> {
str=(str || '').replace(/\n/g, '')
let subjects=str.match(/('subject':'.*?',)/g)
if (_subjects.length===0) {
_subjects=subjects
} else if (subjects[0] !==_subjects[0]) {
notificationHandler();
}
})
}).catch(err=> {
console.log('err:', err)
});
}
// 發送通知
function notificationHandler () {
let notification;
if (window.Notification && Notification.permission==='granted') {
notification=new Notification('收到新郵件啦', {
dir: 'ltr',
body: `收到新郵件啦,快去看看吧`
});
} else if (Notification.permission !=='denied') {
Notification.requestPermission().then(function(permission) {
if (permission==='granted') {
notification=new Notification('收到新郵件啦', {
dir: 'ltr',
body: `收到新郵件啦,快去看看吧`
});
}
});
}
if (notification) {
notification.onclick=()=> {
window.focus();
};
}
}
上述代碼中的相關邏輯是以郵箱收件箱為例。
將代碼放到控制臺執行后,每隔1分鐘訪問一次接口,當響應內容有變化時,會向用戶發送系統通知;當用戶點擊通知面板時,系統就會將焦點給到受監控的網頁,方便用戶對網頁進行查看。
1)要求瀏覽器支持Notification這個API,這個API對應的就是系統右下角的通知功能,目前主流瀏覽器都是支持的。
系統通知
2)在控制臺運行代碼前,需要用戶已經授權瀏覽器可以使用Notification權限,如果不知道是否允許,可以在控制臺執行代碼:
Notification.requestPermission().then(function(permission) {console.log(permission)})
返回值為 granted 說明是已授權的;
如果不是,那么瀏覽器會彈出提示詢問我們是否允許;
如果權限是denied,而且看不到彈窗,那么可以重啟瀏覽器再做嘗試。
申請權限
前一直覺得監控告警是件很神奇的事情,仿佛可望不可及,今天我們就一起來解開它神秘的面紗哈哈~~
我的電腦是win10系統,我在電腦上安裝了Docker Desktop軟件,使用docker部署的
prometheus、pushgateway和alertmanager。
一、拉取prometheus、pushgateway和alertmanager的鏡像,命令很簡單:
docker pull prom/prometheus
docker pull prom/pushgateway
docker pull prom/alertmanager
可以通過docker images命令查看鏡像是否拉取成功。
二、配置prometheus,創建prometheus.yml
global:
scrape_interval: 60s
evaluation_interval: 60s
alerting:
alertmanagers:
- static_configs:
- targets: ["ip:9093"] #這里是alertmanager的地址,注意這個地址是宿主機的地址,不可以寫localhost或者127.0.0.1,下面的ip同理
rule_files:
- "rule/*.yml" #alertmanager的告警規則文件
scrape_configs:
- job_name: prometheus
static_configs:
- targets: ['ip:9090']
labels:
instance: prometheus
- job_name: pushgateway
static_configs:
- targets: ['ip:9091']
labels:
instance: pushgateway
可以在rule文件夾下創建一個test_rule.yml
groups:
- name: test_rule
rules:
- alert: chat接口超時1500ms個數 # 告警名稱
expr: test_metric > 0 # 告警的判定條件,參考Prometheus高級查詢來設定
for: 1m # 滿足告警條件持續時間多久后,才會發送告警
labels: #標簽項
team: node
annotations: # 解析項,詳細解釋告警信息
summary: "異常服務節點:{{$labels.exported_instance}}"
description: "異常節點:{{$labels.exported_instance}}: 異常服務名稱: {{$labels.Service_Name}} "
value: "chat接口超時1500ms個數:{{$value}}"
其中exported_instance和Service_Name都是我們往pushgateway中推送的數據,通過{{$labels.xxx}}的形式可以獲取到
三、配置alertmanager.yml,創建alertmanager.yml
global:
resolve_timeout: 5m #處理超時時間,默認為5min
smtp_smarthost: 'smtp.126.com:25' # 郵箱smtp服務器代理,我這里是126的
smtp_from: '###@126.com' # 發送郵箱名稱=郵箱名稱
smtp_auth_username: '###@126.com' # 郵箱名稱=發送郵箱名稱
smtp_auth_password: '#####' # 授權碼
smtp_require_tls: false
smtp_hello: '126.com'
templates:
- 'test.tmpl' #告警信息模板
route:
group_by: ['alertname'] #報警分組依據
group_wait: 10s #最初即第一次等待多久時間發送一組警報的通知
group_interval: 10m # 在發送新警報前的等待時間
repeat_interval: 1h # 發送重復警報的周期 對于email配置中,此項不可以設置過低,>否則將會由于郵件發送太多頻繁,被smtp服務器拒絕
receiver: 'email' # 發送警報的接收者的名稱,以下receivers name的名稱
receivers:
- name: 'email'
email_configs: # 郵箱配置
- to: '###@126.com' # 接收警報的email配置
headers: { Subject: "[WARN] 報警郵件"} # 接收郵件的標題
send_resolved: true
html: '{{ template "test.html" .}}' #這個test.html就是模板中define的名稱,需要對應起來
webhook_configs:
- url: 'http://ip:9093/alertmanager/hook' #這個是alertmanager的地址,ip也是宿主機的ip
inhibit_rules:
- source_match:
severity: 'critical'
target_match:
severity: 'warning'
equal: ['alertname', 'dev', 'instance']
再配置test.tmpl
{{ define "test.html" }}
<table border="1">
<tr>
<td>報警項</td>
<td>實例</td>
<td>報警閥值</td>
<td>開始時間</td>
</tr>
{{ range $i, $alert :=.Alerts }}
<tr>
<td>{{ index $alert.Labels "alertname" }}</td>
<td>{{ index $alert.Labels "instance" }}</td>
<td>{{ index $alert.Annotations "value" }}</td>
<td>{{ $alert.StartsAt }}</td>
</tr>
{{ end }}
</table>
{{ end }}
配置結束,下面開始啟動容器
一、啟動pushgateway:docker run -d --name=pushgateway -p 9091:9091 prom/pushgateway
可以登錄http://localhost:9091/查看:
二、啟動alertmanager
docker run -d -p 9093:9093 --restart=always --name=alertmanager -v 宿主機的alertmanager.yml地址:/etc/alertmanager/alertmanager.yml -v 宿主機的test.tmpl地址:/etc/alertmanager/test.tmpl prom/alertmanager:latest
登錄http://localhost:9093/查看:
三、啟動prometheus容器
docker run -d -p 9090:9090 --restart=always --name=prometheus -v 宿主機的prometheus.yml地址:/etc/prometheus/prometheus.yml -v 宿主機的rule文件夾路徑:/etc/prometheus/rule/ prom/prometheus
登錄 http://localhost:9090/查看:
查看監控情況:
此時環境已經全部部署完畢,下面可以往pushgateway中推送數據,查看告警情況
echo "test_metric 2" | curl --data-binary @- http://127.0.0.1:9091/metrics/job/test_job/instance/192.168.0.1/Service_Name/ai_sym_interface
這個命令的意思是向job為test_job中推送數據,instance為192.168.0.1,Service_Name為ai_sym_interface,值為2
可登錄pushgateway查看推送情況:
由于prometheus監控了pushgateway的數據指標,所以在prometheus中也可以看到這條數據:
由于我們配置了test_rule.yml,當test_metric大于0并持續一秒會發送,報警郵件:
至此,郵箱告警就完成了,其他的告警也是同樣的道理,可以繼續研究,加油~!
原文鏈接:記憶旅途
*請認真填寫需求信息,我們會在24小時內與您取得聯系。