整合營銷服務商

          電腦端+手機端+微信端=數(shù)據(jù)同步管理

          免費咨詢熱線:

          9款堪稱神器的谷歌插件,你不想試試嗎?

          9款堪稱神器的谷歌插件,你不想試試嗎?

          為互聯(lián)網(wǎng)人,永遠在尋找新的靈感、接受新的訊息,這也是互聯(lián)網(wǎng)的美妙之處,會在信息汪洋里,能夠收獲一些驚喜。

          平時在工作中,我總喜歡收集一些新的有趣有用的工具神器,好處是能夠幫自己提高工作效率,事半功倍。今天整理分享出來,請謹慎使用?。ㄒ驗橛行┕ぞ咭坏┯昧朔路鹁拖翊蜷_了新世界大門再也回不去了。)

          NO.1 瀏覽器窗口調(diào)整大小

          (https://chrome.google.com/webstore/detail/window-resizer/kkelicaakdanhinjdeammmilcgefonfh)

          如果你是一名設計師 - 當你讀到這篇文章時,你最有可能盯著27英寸的iMac。然而,我們的大多數(shù)用戶都沒有那么大的顯示器。

          因此給你推薦這個工具—Window Resizer。

          您需要查看不同尺寸的瀏覽器外觀,只需打開擴展程序,然后單擊預設視口或輸入自定義視圖。

          NO.2 動圖記錄

          https://chrome.google.com/webstore/detail/loom-video-recorder-scree/liecbddmkiiihnedobmlmillhodjkdmb

          他們說一張圖片勝過千言萬語,所以視頻價值一萬美元?1M?誰知道 - 雖然很多。Loom是一款真正令人驚嘆的免費軟件,它可以幫助您記錄動畫,用戶流或錯誤,并與您的團隊分享。

          在過去的幾個月里,我經(jīng)常使用這個工具。當你試圖通過屏幕截圖來傳達無法捕捉的東西時,這非常棒。只需安裝擴展程序并按記錄即可。完成后,您可以分享您的視頻并獲取有關查看過的人的統(tǒng)計信息等。

          NO.3 一鍵檢查網(wǎng)頁錯誤

          https://www.toyboxsystems.com/

          您是否花費大量時間檢查元素,抓取屏幕截圖以及記錄網(wǎng)站上的錯誤?好吧,看看Toybox chrome擴展程序。這是在您的網(wǎng)站上直接留下反饋和檢查CSS的最快方法。

          您可以將其視為InVision評論和Zeplin Inspecting - 但是在您的網(wǎng)站上而不是設計文件。不僅如此,當您發(fā)表評論時,它會自動截取屏幕截圖,記錄瀏覽器數(shù)據(jù),操作系統(tǒng)信息,視口大小等等 - 使復制問題變得輕而易舉。對于任何產(chǎn)品團隊或代理商來說,這都是一個非常必要的東西。

          NO.4 logo神器

          https://www.logosc.cn/

          嚴格來說,這不算是一款谷歌插件,但是我依然想推薦給身邊的朋友使用,因為它實在太方便了。通過logo神器可以完完全全不依賴設計師,為自己的品牌創(chuàng)建logo,設計名片、完成品牌設計,甚至營銷海報,這一套工作在以前可能需要很多設計師才可以做完,但是技術發(fā)展到今天,我們可以借助這樣一個智能設計工具獨立完成。

          NO.5 靈感聚合導航

          https://chrome.google.com/webstore/detail/muzli-2-stay-inspired/glcipcfhmopcgidicgdociohdoicpdfc

          當你在喝早晨咖啡(或茶)時,是不是需要瀏覽一些打發(fā)時間的靈感網(wǎng)站?Muzli Chrome擴展就是為你準的。每當您打開一個新的瀏覽器窗口時,您都會看到所有令人敬畏的設計的最新供稿。他們從眾多設計資源中汲取靈感,為您提供新穎,時尚和酷炫的產(chǎn)品。

          我已經(jīng)使用這個擴展多年了,它真的很棒。

          NO.6 圖標抓取神器

          https://chrome.google.com/webstore/detail/svg-grabber-get-all-the-s/ndakggdliegnegeclmfgodmgemdokdmg

          你有沒有遇到過需要抓取頁面上的徽標/圖標的時候呢,如果這聽起來像你做的事 - 那么歡迎SVG Grabber進入你的生活。單擊一個按鈕,它將自動拉出頁面上的所有SVG。它能夠捕獲并快速下載所需的內(nèi)容。

          它不一定是我一直使用的擴展程序,但是對于那些棘手的時刻而言,這是非常棒的。

          NO.7 頁面標尺

          http://chrome.google.com/webstore/detail/page-ruler/emliamioobfffbgcfdchabfibonehkme

          測量頁面上對象的大小可能會非常痛苦。如果您是經(jīng)常打開屏幕截圖工具的人 - 我肯定會建議您自己使用Page Ruler擴展名。

          打開擴展程序,拖動框進行測量,你就完成了!其他不多。

          NO.8 網(wǎng)頁取色器

          https://chrome.google.com/webstore/detail/colorzilla/bhlhnicpbhignbdhedgjhgdocnmhomnp

          有時您只需要快速查看正在使用的顏色 - 而ColorZilla就是一個很好的解決方案。只需將鼠標懸停在頁面上的元素上即可查看正在使用的十六進制和rgb顏色值。單擊以快速將其復制到剪貼板。它快速,簡單,高效。

          他們有一些其他功能,但是使用的次數(shù)不多。

          NO.9 自定義光標

          https://chrome.google.com/webstore/detail/custom-cursor-for-chrome/ogdlpmhglpejoiomcodnpjnfgcpmgale

          最后一個工具,推薦一個有趣的吧~你可以自定義光標,通過Custom Cursor for Chrome這個插件,你可以把原本的黑色光標換成任何你喜歡的顏色、形象~

          非常有趣,非常時髦,非常新鮮 - 來試試吧。

          感謝您的閱讀,希望您也和我一樣,享受這些有趣又有用的小工具~

          logo品牌神器,是一款智能在線設計logo、名片VI、海報圖片以及辦公文檔的實用工具。我們專注于智能品牌設計領域,通過技術驅(qū)動,讓創(chuàng)業(yè)者能夠自主完成品牌創(chuàng)建,覆蓋從logo標志、品牌VI到營銷推廣等多種場景,旨在解決創(chuàng)業(yè)初期品牌建設不足、成本高等諸多痛點。

          本節(jié)中,將結合一些示例。所有這些示例都適用于多種模型,并利用 了不同模型之間非常相似的API。

          重要 :要運行示例的最新版本,你必須從源代碼安裝并為示例安裝一些特定要求。在新的虛擬環(huán)境中執(zhí)行以下步驟:

          git clone https://github.com/huggingface/transformers
          cd transformers
          pip install .
          pip install -r ./examples/requirements.txt

          Section Description TensorFlow 2.0 GLUE模型 在GLUE任務上運行BERT TensorFlow 2.0模型的示例。 語言模型訓練 對文本數(shù)據(jù)集上的庫模型進行微調(diào)(或從頭開始訓練)。GPT/GPT-2的因果語言建模,BERT/RoBERTa的掩碼語言建模。 語言生成 使用庫的自回歸模型生成條件文本:GPT、GPT-2、Transformer XL和XLNet。 GLUE 在9個GLUE任務上運行BERT/XLM/XLNet/RoBERTa的示例。示例使用分布式訓練和半精確性。 SQuAD 使用BERT/RoBERTa/XLNet/XLM回答問題,示例使用分布式訓練。 多項選擇 在SWAG/RACE/ARC任務上運行BERT/XLNet/RoBERTa的示例。 命名實體識別 在CoNLL 2003數(shù)據(jù)集上使用BERT進行命名實體識別(NER),示例使用分布式訓練。 XNLI 在XNLI基準上運行BERT/XLM的示例。 模型性能的對抗性評估 在NLI系統(tǒng)(HANS)的數(shù)據(jù)集(McCoy等人,2019年)的啟發(fā)式分析上測試自然語言推理的對抗性評估模型

          GLUE上的TensorFlow 2.0 Bert模型

          基于腳本run_tf_glue.py的GLUE上的TensorFlow 2.0 Bert模型。

          微調(diào)TensorFlow 2.0 Bert模型以對GLUE基準的MRPC任務進行序列分類。

          該腳本具有用于在Tensor Core(NVIDIA Volta/Turing GPU)和將來的硬件上運行模型的混合精度(Automatic Mixed Precision / AMP)選項,以及XLA的選項,該選項使用XLA編譯器來減少模型運行時間。在腳本中使用"USE_XLA"或"USE_AMP"變量來切換選項。這些選項和以下基準由@tlkh提供。

          腳本快速測試結果(無其他修改):

          GPU 模式 時間(第二個epoch) 準確度(3次) Titan V FP32 41s 0.8438 / 0.8281 / 0.8333 Titan V AMP 26s 0.8281 / 0.8568 / 0.8411 V100 FP32 35s 0.8646 / 0.8359 / 0.8464 V100 AMP 22s 0.8646 / 0.8385 / 0.8411 1080 Ti FP32 55s -

          對于相同的硬件和超參數(shù)(使用相同的批次大小),混合精度(AMP)大大減少了訓練時間。

          語言模型訓練

          基于腳本run_language_modeling.py。

          在GPT,GPT-2,BERT和RoBERTa(即將 添加DistilBERT )的文本數(shù)據(jù)集上微調(diào)(或從頭訓練)用于語言建模的庫模型。GPT和GPT-2使用因果語言建模(CLM)損失 進行微調(diào),而BERT和RoBERTa 使用掩碼語言建模(MLM)損失進行微調(diào)。

          在運行下面的示例之前,你應該獲取一個包含文本的文件,在該文件上將 訓練或微調(diào)語言模型。此類文本的一個很好的例子是WikiText-2數(shù)據(jù)集(https://blog.einstein.ai/the-wikitext-long-term-dependency-language-modeling-dataset/)。

          我們將參考兩個不同的文件:$ TRAIN_FILE,其中包含用于訓練的文本,以及$ TEST_FILE,其中包含將用于評估的文本。

          GPT-2/GPT和因果語言建模

          以下示例對WikiText-2上的GPT-2進行了微調(diào)。我們正在使用原始的WikiText-2(在標記化之前沒有替換任何標記)。這里的損失是因果語言建模的損失。

          export TRAIN_FILE=/path/to/dataset/wiki.train.raw
          export TEST_FILE=/path/to/dataset/wiki.test.raw
          
          python run_language_modeling.py \
              --output_dir=output \
              --model_type=gpt2 \
              --model_name_or_path=gpt2 \
              --do_train \
              --train_data_file=$TRAIN_FILE \
              --do_eval \
              --eval_data_file=$TEST_FILE

          單個K80 GPU訓練大約需要一個半小時,然后大約一分鐘的時間評估運行。它微調(diào)的結果在數(shù)據(jù)集上困惑度大約20。

          RoBERTa / BERT和掩碼語言建模

          以下示例對WikiText-2上的RoBERTa進行了微調(diào)。在這里,我們也使用原始的WikiText-2。這里損失不一樣,因為BERT/RoBERTa具有雙向機制。我們所使用的損失與訓練前的損失相同,都為掩碼語言建模。

          根據(jù)RoBERTa的論文,我們使用動態(tài)掩碼而不是靜態(tài)掩碼。因此,模型收斂的 速度可能會稍微慢一些(過擬合會花費更多的時間)。

          我們使用--mlm標志,以便腳本可以更改其損失功能。

          export TRAIN_FILE=/path/to/dataset/wiki.train.raw
          export TEST_FILE=/path/to/dataset/wiki.test.raw
          
          python run_language_modeling.py \
              --output_dir=output \
              --model_type=roberta \
              --model_name_or_path=roberta-base \
              --do_train \
              --train_data_file=$TRAIN_FILE \
              --do_eval \
              --eval_data_file=$TEST_FILE \
              --mlm

          語言生成

          基于該腳本run_generation.py。

          使用庫的自動回歸模型生成條件文本:GPT,GPT-2,Transformer-XL,XLNet,CTRL。我們的官方演示(https://transformer.huggingface.co)使用了類似的腳本,你可以在其中試用庫中提供的各種模型。

          用法示例:

          python run_generation.py \ 
              --model_type=gpt2 \ 
              --model_name_or_path=gpt2

          GLUE

          基于該腳本run_glue.py。

          在GLUE基準上微調(diào)用于序列分類的庫模型。該腳本可以微調(diào)以下模型:BERT,XLM,XLNet和RoBERTa。

          GLUE由9個不同的任務組成。我們在不帶大小寫的BERT基本模型("bert-base-uncased")的基準開發(fā)集上獲得以下結果。所有實驗都運行單個V100 GPU,總訓練批次大小在16至64之間。其中一些任務的數(shù)據(jù)集較小,訓練可能導致結果差異很大。在不同的運行之間。我們針對每個指標報告取5次運行(隨機數(shù)種子不同)的中位數(shù)。

          任務 度量 結果 CoLA Matthew's 相關系數(shù) 49.23 SST-2 準確度 91.97 MRPC F1/準確度 89.47/85.29 STS-B Person/Spearman 相關系數(shù) 83.95/83.70 QQP 準確度/F1 88.40/84.31 MNLI 匹配準確度/不匹配準確度 80.61/81.08 QNLI 準確度 87.46 RTE 準確度 61.73 WNLI 準確度 45.07

          其中一些結果與網(wǎng)站上GLUE基準測試集上報告的結果有顯著差異。有關QQP和WNLI,請參閱網(wǎng)站上的FAQ12(https://gluebenchmark.com/faq)。

          在運行這些GLUE任務中的任何一項之前,你應該通過運行此腳本(https://gist.github.com/W4ngatang/60c2bdb54d156a41194446737ce03e2e)下載GLUE數(shù)據(jù)(https://gluebenchmark.com/tasks) 并解壓縮將其保存到$ GLUE_DIR目錄中。

          export GLUE_DIR=/path/to/glue
          export TASK_NAME=MRPC
          
          python run_glue.py \
            --model_type bert \
            --model_name_or_path bert-base-cased \
            --task_name $TASK_NAME \
            --do_train \
            --do_eval \
            --do_lower_case \
            --data_dir $GLUE_DIR/$TASK_NAME \
            --max_seq_length 128 \
            --per_gpu_train_batch_size 32 \
            --learning_rate 2e-5 \
            --num_train_epochs 3.0 \
            --output_dir /tmp/$TASK_NAME/

          其中任務名稱可以是CoLA,SST-2,MRPC,STS-B,QQP,MNLI,QNLI,RTE,WNLI之一。

          開發(fā)集結果將顯示在指定output_dir中的文本文件eval_results.txt中。 對于MNLI,由于有兩個單獨的開發(fā)集(匹配和不匹配),所以除了/tmp/MNLI/之外,還有一個單獨的輸出文件夾,稱為/tmp/MNLI-MM/。

          除MRPC、MNLI、CoLA、SST-2外,apex在任何GLUE任務中都沒有進行過半精確訓練。以下部分提供了如何使用MRPC運行半精確訓練的詳細信息。盡管如此,使用剩余的GLUE任務運行半精度訓練也不應該有任何問題,因為每個任務的數(shù)據(jù)處理器都繼承自基類數(shù)據(jù)處理器。

          MRPC

          微調(diào)示例

          以下示例對Microsoft Research Paraphrase Corpus(MRPC)語料庫上的BERT進行微調(diào),并且在單個K-80上運行不到10分鐘,在單個tesla V100 16GB上,僅用27秒鐘安裝了apex。

          在運行這些GLUE任務中的任何一項之前,你應該下載運行此腳本(https://gist.github.com/W4ngatang/60c2bdb54d156a41194446737ce03e2e) 來下載GLUE數(shù)據(jù)(https://gluebenchmark.com/tasks),并將其解壓縮到某個目錄`$ GLUE_DIR`中。

          export GLUE_DIR=/path/to/glue
          
          python run_glue.py \
            --model_type bert \
            --model_name_or_path bert-base-cased \
            --task_name MRPC \
            --do_train \
            --do_eval \
            --do_lower_case \
            --data_dir $GLUE_DIR/MRPC/ \
            --max_seq_length 128 \
            --per_gpu_train_batch_size 32 \
            --learning_rate 2e-5 \
            --num_train_epochs 3.0 \
            --output_dir /tmp/mrpc_output/ 

          我們的測試基于原始實現(xiàn)的超參數(shù)(https://github.com/google-research/bert#sentence-and-sentence-pair-classification-tasks)得出的評估,結果介于84%和88%。

          使用Apex和混合精度

          使用Apex和16位精度,在MRPC上的微調(diào)僅需27秒。首先安裝apex(https://github.com/NVIDIA/apex),然后運行以下示例:

          export GLUE_DIR=/path/to/glue
          
          python run_glue.py \
            --model_type bert \
            --model_name_or_path bert-base-cased \
            --task_name MRPC \
            --do_train \
            --do_eval \
            --do_lower_case \
            --data_dir $GLUE_DIR/MRPC/ \
            --max_seq_length 128 \
            --per_gpu_train_batch_size 32 \
            --learning_rate 2e-5 \
            --num_train_epochs 3.0 \
            --output_dir /tmp/mrpc_output/ \
            --fp16

          分布式訓練

          下面是一個在8個V100 GPU上使用分布式訓練的例子。使用的模型是BERT whole-word-masking模式,在MRPC上達到F1> 92。

          export GLUE_DIR=/path/to/glue
          
          python -m torch.distributed.launch \
              --nproc_per_node 8 run_glue.py \
              --model_type bert \
              --model_name_or_path bert-base-cased \
              --task_name MRPC \
              --do_train \
              --do_eval \
              --do_lower_case \
              --data_dir $GLUE_DIR/MRPC/ \
              --max_seq_length 128 \
              --per_gpu_train_batch_size 8 \
              --learning_rate 2e-5 \
              --num_train_epochs 3.0 \
              --output_dir /tmp/mrpc_output/

          這些超參數(shù)訓練給了我們結果如下

          acc=0.8823529411764706
          acc_and_f1=0.901702786377709
          eval_loss=0.3418912578906332
          f1=0.9210526315789473
          global_step=174
          loss=0.07231863956341798

          MNLI

          下面的示例使用了BERT-large, uncased, whole-word-masking模型并在MNLI任務上對其進行微調(diào)。

          export GLUE_DIR=/path/to/glue
          
          python -m torch.distributed.launch \
              --nproc_per_node 8 run_glue.py \
              --model_type bert \
              --model_name_or_path bert-base-cased \
              --task_name mnli \
              --do_train \
              --do_eval \
              --do_lower_case \
              --data_dir $GLUE_DIR/MNLI/ \
              --max_seq_length 128 \
              --per_gpu_train_batch_size 8 \
              --learning_rate 2e-5 \
              --num_train_epochs 3.0 \
              --output_dir output_dir \

          結果如下:

          ***** Eval results *****
            acc=0.8679706601466992
            eval_loss=0.4911287787382479
            global_step=18408
            loss=0.04755385363816904
          
          ***** Eval results *****
            acc=0.8747965825874695
            eval_loss=0.45516540421714036
            global_step=18408
            loss=0.04755385363816904

          多項選擇題

          基于該腳本run_multiple_choice.py。

          在SWAG上進行微調(diào)

          下載swag(https://github.com/rowanz/swagaf/tree/master/data)數(shù)據(jù)

          #在4個tesla V100(16GB)GPU上進行訓練
          export SWAG_DIR=/path/to/swag_data_dir
          python ./examples/run_multiple_choice.py \
          --model_type roberta \
          --task_name swag \
          --model_name_or_path roberta-base \
          --do_train \
          --do_eval \
          --do_lower_case \
          --data_dir $SWAG_DIR \
          --learning_rate 5e-5 \
          --num_train_epochs 3 \
          --max_seq_length 80 \
          --output_dir models_bert/swag_base \
          --per_gpu_eval_batch_size=16 \
          --per_gpu_train_batch_size=16 \
          --gradient_accumulation_steps 2 \
          --overwrite_output

          與所定義的超參數(shù)訓練產(chǎn)生了以下結果

          ***** Eval results *****
          eval_acc=0.8338998300509847
          eval_loss=0.44457291918821606

          SQuAD

          基于該腳本run_squad.py。

          在SQuAD1.0上對BERT進行微調(diào)

          此示例代碼在SQuAD1.0數(shù)據(jù)集上微調(diào)BERT。在單個tesla V100 16GB上,它可以在24分鐘(基于BERT-base上)或68分鐘(對于BERT-large上)上運行??梢酝ㄟ^以下鏈接下載SQuAD的數(shù)據(jù),并將其保存在$ SQUAD_DIR目錄中。

          • train-v1.1.json(https://rajpurkar.github.io/SQuAD-explorer/dataset/train-v1.1.json)
          • dev-v1.1.json(https://rajpurkar.github.io/SQuAD-explorer/dataset/dev-v1.1.json)
          • evaluate-v1.1.py(https://github.com/allenai/bi-att-flow/blob/master/squad/evaluate-v1.1.py)

          對于SQuAD2.0,你需要下載:

          • train-v2.0.json(https://rajpurkar.github.io/SQuAD-explorer/dataset/train -v2.0.json)
          • dev-v2.0.json(https://rajpurkar.github.io/SQuAD-explorer/dataset/dev-v2.0.json)
          • evaluate-v2.0.py(https://worksheets.codalab.org/rest/bundles/0x6b567e1cf2e041ec80d7098f031c5c9e/contents/blob/)
          export SQUAD_DIR=/path/to/SQUAD
          
          python run_squad.py \
            --model_type bert \
            --model_name_or_path bert-base-cased \
            --do_train \
            --do_eval \
            --do_lower_case \
            --train_file $SQUAD_DIR/train-v1.1.json \
            --predict_file $SQUAD_DIR/dev-v1.1.json \
            --per_gpu_train_batch_size 12 \
            --learning_rate 3e-5 \
            --num_train_epochs 2.0 \
            --max_seq_length 384 \
            --doc_stride 128 \
            --output_dir /tmp/debug_squad/ 

          與先前定義的超參數(shù)訓練產(chǎn)生以下結果

          F1=88.52 
          EXACT_MATCH=81.22 

          分布式訓練

          下面是使用8個V100 GPU分布式訓練的示例和BERT Whole Word Masking uncased 模型在SQuAD1.1達到F1>93

          python -m torch.distributed.launch --nproc_per_node=8 ./examples/run_squad.py \
              --model_type bert \
              --model_name_or_path bert-large-uncased-whole-word-masking \
              --do_train \
              --do_eval \
              --do_lower_case \
              --train_file $SQUAD_DIR/train-v1.1.json \
              --predict_file $SQUAD_DIR/dev-v1.1.json \
              --learning_rate 3e-5 \
              --num_train_epochs 2 \
              --max_seq_length 384 \
              --doc_stride 128 \
              --output_dir ./examples/models/wwm_uncased_finetuned_squad/ \
              --per_gpu_eval_batch_size=3   \
              --per_gpu_train_batch_size=3   \

          使用先前定義的超參數(shù)進行訓練得到以下結果

          F1=93.15 
          EXACT_MATCH=86.91 

          此模型也在模型庫中,按以下字符串可引用 bert-large-uncased-whole-word-masking-finetuned-squad。

          在SQuAD上微調(diào)XLNet

          此示例代碼在SQuAD1.0和SQuAD2.0數(shù)據(jù)集上微調(diào)XLNet。參見上文,下載SQuAD的數(shù)據(jù)。

          SQuAD1.0的命令:

          export SQUAD_DIR=/path/to/SQUAD
          
          python run_squad.py \
              --model_type xlnet \
              --model_name_or_path xlnet-large-cased \
              --do_train \
              --do_eval \
              --do_lower_case \
              --train_file $SQUAD_DIR/train-v1.1.json \
              --predict_file $SQUAD_DIR/dev-v1.1.json \
              --learning_rate 3e-5 \
              --num_train_epochs 2 \
              --max_seq_length 384 \
              --doc_stride 128 \
              --output_dir ./wwm_cased_finetuned_squad/ \
              --per_gpu_eval_batch_size=4  \
              --per_gpu_train_batch_size=4   \
              --save_steps 5000

          SQuAD2.0的命令:

          export SQUAD_DIR=/path/to/SQUAD
          
          python run_squad.py \
              --model_type xlnet \
              --model_name_or_path xlnet-large-cased \
              --do_train \
              --do_eval \
              --version_2_with_negative \
              --train_file $SQUAD_DIR/train-v2.0.json \
              --predict_file $SQUAD_DIR/dev-v2.0.json \
              --learning_rate 3e-5 \
              --num_train_epochs 4 \
              --max_seq_length 384 \
              --doc_stride 128 \
              --output_dir ./wwm_cased_finetuned_squad/ \
              --per_gpu_eval_batch_size=2  \
              --per_gpu_train_batch_size=2   \
              --save_steps 5000

          較大的批處理大小可以提高性能,同時消耗更多的內(nèi)存。

          具有先前定義的超參數(shù)的SQuAD1.0的結果:

          {
          "exact": 85.45884578997162,
          "f1": 92.5974600601065,
          "total": 10570,
          "HasAns_exact": 85.45884578997162,
          "HasAns_f1": 92.59746006010651,
          "HasAns_total": 10570
          }

          具有先前定義的超參數(shù)的SQuAD2.0的結果:

          {
          "exact": 80.4177545691906,
          "f1": 84.07154997729623,
          "total": 11873,
          "HasAns_exact": 76.73751686909581,
          "HasAns_f1": 84.05558584352873,
          "HasAns_total": 5928,
          "NoAns_exact": 84.0874684608915,
          "NoAns_f1": 84.0874684608915,
          "NoAns_total": 5945
          }

          XNLI

          基于腳本run_xnli.py(https://github.com/huggingface/transformers/blob/master/examples/run_xnli.py)。

          XNLI(https://www.nyu.edu/projects/bowman/xnli/)是基于MultiNLI(http://www.nyu.edu/projects/bowman/multinli/)的眾包數(shù)據(jù)集。它是跨語言文本表示形式的評估基準。成對的文本用15種不同語言(包括高資源語言(例如英語)和低資源語言(例如斯瓦希里語)進行文本注釋)。

          XNLI上的微調(diào)

          此示例代碼在XNLI數(shù)據(jù)集上微調(diào)了mBERT(多語言的BERT)。它在單個tesla V100 16GB上需要運行106分鐘。可以通過以下鏈接下載XNLI的數(shù)據(jù),并且應將其同時保存(并解壓縮)在$ XNLI_DIR目錄中。

          • XNLI 1.0(https://www.nyu.edu/projects/bowman/xnli/XNLI-1.0.zip)
          • XNLI-MT 1.0(https://www.nyu.edu/projects/bowman/xnli/XNLI-MT-1.0.zip)
          export XNLI_DIR=/path/to/XNLI
          
          python run_xnli.py \
            --model_type bert \
            --model_name_or_path bert-base-multilingual-cased \
            --language de \
            --train_language en \
            --do_train \
            --do_eval \
            --data_dir $XNLI_DIR \
            --per_gpu_train_batch_size 32 \
            --learning_rate 5e-5 \
            --num_train_epochs 2.0 \
            --max_seq_length 128 \
            --output_dir /tmp/debug_xnli/ \
            --save_steps -1

          與先前定義的超參數(shù)訓練產(chǎn)生以下結果

          ACC=0.7093812375249501 

          MM-IMDB

          基于腳本run_mmimdb.py(https://github.com/huggingface/transformers/blob/master/examples/mm-imdb/run_mmimdb.py)。

          MM-IMDb(http://lisi1.unal.edu.co/mmimdb/)是一個多模式數(shù)據(jù)集,包含大約26,000部電影,包括圖像,劇情和其他元數(shù)據(jù)。

          訓練MM-IMDB

          python run_mmimdb.py \
              --data_dir /path/to/mmimdb/dataset/ \
              --model_type bert \
              --model_name_or_path bert-base-uncased \
              --output_dir /path/to/save/dir/ \
              --do_train \
              --do_eval \
              --max_seq_len 512 \
              --gradient_accumulation_steps 20 \
              --num_image_embeds 3 \
              --num_train_epochs 100 \
              --patience 5

          模型性能對抗性評估

          這是一個使用自然語言推理的對抗性評估和NLI系統(tǒng)啟發(fā)式分析(HANS)數(shù)據(jù)集評估模型的示例。該示例由Nafise Sadat Moosavi(https://github.com/ns-moosavi)提供。

          可以從此位置(https://github.com/tommccoy1/hans)下載HANS數(shù)據(jù)集。

          這是使用test_hans.py的示例:

          export HANS_DIR=path-to-hans
          export MODEL_TYPE=type-of-the-model-e.g.-bert-roberta-xlnet-etc
          export MODEL_PATH=path-to-the-model-directory-that-is-trained-on-NLI-e.g.-by-using-run_glue.py
          
          python examples/hans/test_hans.py \
                  --task_name hans \
                  --model_type $MODEL_TYPE \
                  --do_eval \
                  --do_lower_case \
                  --data_dir $HANS_DIR \
                  --model_name_or_path $MODEL_PATH \
                  --max_seq_length 128 \
                  --output_dir $MODEL_PATH \

          這將在MODEL_PATH中創(chuàng)建hans_predictions.txt文件,然后可以使用HANS數(shù)據(jù)集中的hans/evaluate_heur_output.py對其進行評估。

          使用batch大小8和HANS數(shù)據(jù)集上的隨機種子42在MNLI上訓練的基于BERT的模型的結果如下:

          們說爆款腕表的設計秘訣是整體式設計,這里的表耳中段=整體式設計標志,意味著表殼到表鏈的一體式視覺效果

          ?除了線條比例,還多了一些看點,就是構成顏值的創(chuàng)新工藝,比如CLM、二級鈦表殼、陶瓷表圈跟鏈帶一起,共同詮釋獨特的色彩美學

          ?我們說腕表講究的是.傳統(tǒng)的符號+技術文化的象征,這款表大有來頭

          ?造型細節(jié)很有講究的,比如用帆船甲板和風帆縫線致敬航海大發(fā)現(xiàn),世界時功能的背后,是“旅行、發(fā)現(xiàn)、進步”。


          【世界時的講究】

          這款表的世界時區(qū)名稱與業(yè)界常用的模板不一樣,比如,UTC1時區(qū),比爾vs.日內(nèi)瓦;因為比爾是歐米茄總部所在地,比爾作為瑞士腕表的重要產(chǎn)區(qū),它的地位堪比日內(nèi)瓦,但是在某些方面超過了日內(nèi)瓦。這是因為這地方集中了法語區(qū)和德語區(qū)的兩大制表優(yōu)勢。

          中國實際上跨越了5個時區(qū)! 但在世界時上只有一個時區(qū),采用北京時間為標準時間。歐米茄中國有30家直營店,5家在北京。所以,這款世界時腕表的UTC8時區(qū)是北京。

          提問表盤上唯一的一處不是激光上色的時區(qū)名,你能指出是哪嗎?提示一下,轉印的。

          GMT、UTC和世界時腕表

          17世紀,英國人寫出了一個方程式,把真太陽時間換算成了平均太陽時間,就是我們鐘表上的時間,格林威治成了當時天文學家的標準。

          18世紀,航海家把格林威治時間默認0°經(jīng)度。

          19世紀,各地都用當?shù)貢r間,沒有統(tǒng)一的標準,所以火車無法準點。

          后來,格林威治被設為世界本初子午線,全球被劃分為24個時區(qū)

          格林威治在倫敦,所以這款表把倫敦手工標紅:致敬GMT,致敬世界時區(qū)的劃分。

          1972年以前,GMT是國際民用時間標準,專業(yè)UTC,在鐘表上,仍分GMT和世界時。腕表都發(fā)的專業(yè)測評,世界時功能優(yōu)于GMT

          其實,早在1927年,歐米茄就做過一塊可以導航的懷表。

          1969年,歐米茄Flightmaster腕表,是第一款為洲際飛行員和旅行者開發(fā)的。這些腕表是歐米茄為旅行者而生產(chǎn)的腕表。

          2017年,歐米茄真正的世界時腕表誕生,在海馬Aqua Terra的基礎上,歐米茄在復雜設計和與海洋精神之間實現(xiàn)了完美的平衡。

          海馬Aqua Terra世界時腕表有什么特殊?

          它體現(xiàn)了對精準的雙重定義:

          1、走時精準:天文臺,METAS ,你知道METAS認證有多麻煩嗎?

          2、地形精準:激光蝕刻的地球表面;CLM琺瑯的關系

          系列Aqua Terra世界時金屬表,制表工藝,不改變傳統(tǒng)造型的前提下提升顏值等維度,開創(chuàng)腕表設計的新賽道。

          材質(zhì)的創(chuàng)新,我覺得有以下4點:

          1、 此陶瓷非彼陶瓷,

          2、2級鈦和5級鈦

          3、獨特性:Moonshine

          4、有機玻璃Hesalite 藍寶石 sapphire怎么選?

          陶瓷是一種比琺瑯更傳統(tǒng)的材質(zhì),傳統(tǒng)的陶瓷,如砂巖,瓷器,輝石,是以石英礦物為基礎的。主要用來做藝術品、禮器、建材。傳統(tǒng)陶瓷,堅硬但易碎。世界上最早的陶器出現(xiàn)在中國的仙人洞,距今約2萬年。

          但高科技陶瓷不一樣,鈦金屬款的表圈的黑色陶瓷是二氧化鋯陶瓷,精鋼款的表圈是用綠色/藍色(Summer Blue款)陶瓷的,這些陶瓷,加工工藝復雜,比鋼硬、輕而且抗刮擦。有一種大膽前衛(wèi)、充滿運動風尚的大格局。

          陶瓷表圈復合打磨,也就是拉絲和拋光。

          “氧化鋯陶瓷比鋼硬6倍,用腳都能想象打磨有多累。”

          內(nèi)表盤是5級鈦材質(zhì)。用最前沿技術實現(xiàn)了表盤上的地球的地形精準,先是3D深雕,用飛秒激光雕出紋理。內(nèi)表盤是拱形設計,模擬地球的弧度。然后,用CLMColour Laser Marking激光彩色標記印,文本表示)著色。這個生產(chǎn)環(huán)節(jié)不是飛秒激光,而是納秒激光。

          說到飛秒激光表盤,你想到了什么?但“歐米茄不是“素餡”的”

          通過激光照射形成多層氧化膜,最終色彩是上層的干涉效應和層固有顏色產(chǎn)生的疊加效果。

          顏色是通過調(diào)節(jié)曝光溫度來控制的比如,如果想要藍色,大約1870°C 的溫度如果想增加黃色調(diào),降到1670°C 左右。

          激光著色與琺瑯的關系簡單聊兩句

          琺瑯,被認為是一種高級的工藝,主要是手工和成品率的問題,微繪琺瑯更強調(diào)大師的工藝。但歐米茄這個CLM工藝,不論從精確性和耐久性,哪怕是復雜程度,已經(jīng)遠超微繪琺瑯。而一致性就更不用說了。

          “不管是山國還是島國,您不能因為畫不出來就讓人家消失啊。”

          琺瑯微繪,即使是大師想畫成一樣的,琺瑯那種物料也不支持。而CLM工藝,可以保證每個人手上的世界時腕表上的地球地形一致,如果不一致的話,會犯政治錯誤的,尤其是這年月。精準、可靠,關鍵時刻還得靠科技。

          這就是為什么比爾所在的伯爾尼產(chǎn)區(qū)在某些方面超過日內(nèi)瓦產(chǎn)區(qū)。造幾千塊表與造幾十萬塊表,實力不是一個量級的,這也是為什么某日內(nèi)瓦品牌的機芯廠也在比爾。

          為了把世界地圖與外表盤連起來,歐米茄在用了Hesalite有機玻璃刻度環(huán)。

          為什么不用藍寶石?Hesalite有機玻璃是熱塑性,比藍寶石更抗沖擊,而且歐米茄在表面了防刮擦處理。

          指針和小時刻度是Moonshine 18K金的,一說Moonshine,我老是想到北美的某種【Moonshine whisky,呃,飲料?!巴婀兹菀讓W壞,尤其是跟著老外?!?/span>

          Moonshine金是一種歐米茄研發(fā)的獨特的18K金,獨特的色澤靈感源自深邃夜空的月光。

          【鈦金屬款】

          表殼由2級鈦金屬制成。表冠、表背、中凸表耳和折疊式表扣也是。

          2級鈦金屬比5級鈦金屬顏色更深,而且只能進行啞光處理。這種特性讓它與黑色表圈和橡膠表帶完美搭配!

          另外,2級鈦99%的鈦 (準確地說,是98.925%),可以說目前量產(chǎn)腕表上最純的金屬,【thug】另外一種金屬是什么?950鉑金比鋼重,而二級鈦幾乎比精鋼輕一倍。

          【提問】鈦算不算貴金屬?

          ,論儲量并不稀有,但由于與其他地材料的分離過程存在困難,因此仍然是一種昂貴的金屬。鈦的其它優(yōu)點就不用說了吧,最值得一提的是生化惰性,你懂的。

          直徑43毫米,厚度14.12毫米,縱向表耳間距50毫米。防水性達到15個大氣壓(150)。

          精鋼款,更適合喜歡經(jīng)典風格的環(huán)球旅行者。其中一款搭配精鋼表鏈、蝴蝶扣。另一枚則配有灰色縫線的綠色橡膠表帶、折疊扣。

          橡膠表帶是抗菌配方。表帶的紋理靈感是環(huán)游世界的船只上使用的纜繩??p合線是灰色的,就像縫在船帆上的線。與5級鈦表盤2級鈦表殼色澤協(xié)調(diào)。

          綠色/藍色Summer BluePVD表盤太陽射線打磨效果。

          鈦金屬款各方面性能優(yōu)越,又由于其材質(zhì)和工藝的獨特性更適合收藏,真戴著玩水也沒有問題。

          精鋼款適合商務正裝場合和通勤和休閑運動場合。

          機芯】有人質(zhì)疑說,這款世界時的機芯跟前款沒什么區(qū)別。

          “機芯沒毛病干嘛要換呢?”

          8938同軸至臻天文臺機芯,2019年推出,是歐米茄卓越的同軸至臻天文臺機芯系列之一。

          “歐米茄的機械表新款里,想找不是至臻天文臺認證的還真有一定難度?!?/span>

          動力儲60小時,抵抗15000高斯的強磁場。需要注意的是,89009900系列機芯有跳時指針結構的時區(qū)功能??梢栽诓煌C氲那闆r下設置本地時間。在旅行中,還想要保持腕表的精確性,這是一個優(yōu)勢。

          調(diào)速系統(tǒng)由非磁性部件組成,如:硅游絲、Nivagauss、LIGA工藝制成的磷酸鎳材質(zhì)和非晶態(tài)金屬合金的Nivachoc減震。

          - Si14游絲

          - 機芯核心零部件均采用Nivagauss?材料制成

          - 全部由磷酸鎳制成的主機板均采用LIGA技術制成

          - Nivachoc減震器彈簧由非晶態(tài)金屬合金制成

          說到精準,咱們看看歐米茄是如何把麻煩留給自己,把精準留給你的——METAS認證

          機芯組裝后,機芯先送到瑞士官方天文臺 (COSC)測試,在15天內(nèi)完成ISO 3159的走時標準測試。

          “天文臺認證居然包含ISO標準?”

          然后,進行調(diào),從天文臺標準的-4+6提升到0+5秒。最后再送至METAS 也就是(瑞士聯(lián)邦計量研究院)10天的更嚴苛認證測試。

          【總結】

          歐米茄海馬Aqua Terra世界時這三款腕表,用創(chuàng)新的材質(zhì)和技術,詮釋獨特的色彩美學;還體現(xiàn)了對精準的雙重定義:

          而世界時功能的背后,則是“旅行、發(fā)現(xiàn)、進步”。把腕表的核心價值觀:傳統(tǒng)的符號和技術文化的象征,拓展到全新的維度。


          主站蜘蛛池模板: 日本免费一区二区三区| 99精品国产一区二区三区| 日本精品无码一区二区三区久久久| AA区一区二区三无码精片| 精品国产免费一区二区三区| 国产精品视频一区麻豆| 无码av免费一区二区三区| 国产成人无码AV一区二区 | 国模视频一区二区| 久久精品无码一区二区WWW| 2014AV天堂无码一区| 一区二区三区免费在线视频 | 久久一区二区明星换脸| 中文字幕永久一区二区三区在线观看 | 国产精品美女一区二区视频| 亚洲熟女乱综合一区二区| 国产乱码精品一区二区三区四川| 国产乱人伦精品一区二区在线观看 | 国产精品综合一区二区三区| 亚洲AV无码一区二区三区电影 | 国产观看精品一区二区三区| 亚洲国产专区一区| AV无码精品一区二区三区宅噜噜| 国产精品无码不卡一区二区三区| 亚洲成人一区二区| 亚洲一区二区三区偷拍女厕| 久久综合九九亚洲一区| 久久一区二区精品综合| 狠狠色综合一区二区| 日韩一区二区a片免费观看| 国产精品无码一区二区三区免费| 在线精品自拍亚洲第一区| 精品乱码一区二区三区在线| 精品免费久久久久国产一区 | 国产无人区一区二区三区| 日韩精品电影一区亚洲| 久久免费视频一区| 中文字幕一区二区三区5566| 成人免费视频一区二区三区| 狠狠爱无码一区二区三区| 少妇无码AV无码一区|