為互聯(lián)網(wǎng)人,永遠在尋找新的靈感、接受新的訊息,這也是互聯(lián)網(wǎng)的美妙之處,會在信息汪洋里,能夠收獲一些驚喜。
平時在工作中,我總喜歡收集一些新的有趣有用的工具神器,好處是能夠幫自己提高工作效率,事半功倍。今天整理分享出來,請謹慎使用?。ㄒ驗橛行┕ぞ咭坏┯昧朔路鹁拖翊蜷_了新世界大門再也回不去了。)
(https://chrome.google.com/webstore/detail/window-resizer/kkelicaakdanhinjdeammmilcgefonfh)
如果你是一名設計師 - 當你讀到這篇文章時,你最有可能盯著27英寸的iMac。然而,我們的大多數(shù)用戶都沒有那么大的顯示器。
因此給你推薦這個工具—Window Resizer。
您需要查看不同尺寸的瀏覽器外觀,只需打開擴展程序,然后單擊預設視口或輸入自定義視圖。
https://chrome.google.com/webstore/detail/loom-video-recorder-scree/liecbddmkiiihnedobmlmillhodjkdmb
他們說一張圖片勝過千言萬語,所以視頻價值一萬美元?1M?誰知道 - 雖然很多。Loom是一款真正令人驚嘆的免費軟件,它可以幫助您記錄動畫,用戶流或錯誤,并與您的團隊分享。
在過去的幾個月里,我經(jīng)常使用這個工具。當你試圖通過屏幕截圖來傳達無法捕捉的東西時,這非常棒。只需安裝擴展程序并按記錄即可。完成后,您可以分享您的視頻并獲取有關查看過的人的統(tǒng)計信息等。
https://www.toyboxsystems.com/
您是否花費大量時間檢查元素,抓取屏幕截圖以及記錄網(wǎng)站上的錯誤?好吧,看看Toybox chrome擴展程序。這是在您的網(wǎng)站上直接留下反饋和檢查CSS的最快方法。
您可以將其視為InVision評論和Zeplin Inspecting - 但是在您的網(wǎng)站上而不是設計文件。不僅如此,當您發(fā)表評論時,它會自動截取屏幕截圖,記錄瀏覽器數(shù)據(jù),操作系統(tǒng)信息,視口大小等等 - 使復制問題變得輕而易舉。對于任何產(chǎn)品團隊或代理商來說,這都是一個非常必要的東西。
https://www.logosc.cn/
嚴格來說,這不算是一款谷歌插件,但是我依然想推薦給身邊的朋友使用,因為它實在太方便了。通過logo神器可以完完全全不依賴設計師,為自己的品牌創(chuàng)建logo,設計名片、完成品牌設計,甚至營銷海報,這一套工作在以前可能需要很多設計師才可以做完,但是技術發(fā)展到今天,我們可以借助這樣一個智能設計工具獨立完成。
https://chrome.google.com/webstore/detail/muzli-2-stay-inspired/glcipcfhmopcgidicgdociohdoicpdfc
當你在喝早晨咖啡(或茶)時,是不是需要瀏覽一些打發(fā)時間的靈感網(wǎng)站?Muzli Chrome擴展就是為你準的。每當您打開一個新的瀏覽器窗口時,您都會看到所有令人敬畏的設計的最新供稿。他們從眾多設計資源中汲取靈感,為您提供新穎,時尚和酷炫的產(chǎn)品。
我已經(jīng)使用這個擴展多年了,它真的很棒。
https://chrome.google.com/webstore/detail/svg-grabber-get-all-the-s/ndakggdliegnegeclmfgodmgemdokdmg
你有沒有遇到過需要抓取頁面上的徽標/圖標的時候呢,如果這聽起來像你做的事 - 那么歡迎SVG Grabber進入你的生活。單擊一個按鈕,它將自動拉出頁面上的所有SVG。它能夠捕獲并快速下載所需的內(nèi)容。
它不一定是我一直使用的擴展程序,但是對于那些棘手的時刻而言,這是非常棒的。
http://chrome.google.com/webstore/detail/page-ruler/emliamioobfffbgcfdchabfibonehkme
測量頁面上對象的大小可能會非常痛苦。如果您是經(jīng)常打開屏幕截圖工具的人 - 我肯定會建議您自己使用Page Ruler擴展名。
打開擴展程序,拖動框進行測量,你就完成了!其他不多。
https://chrome.google.com/webstore/detail/colorzilla/bhlhnicpbhignbdhedgjhgdocnmhomnp
有時您只需要快速查看正在使用的顏色 - 而ColorZilla就是一個很好的解決方案。只需將鼠標懸停在頁面上的元素上即可查看正在使用的十六進制和rgb顏色值。單擊以快速將其復制到剪貼板。它快速,簡單,高效。
他們有一些其他功能,但是使用的次數(shù)不多。
https://chrome.google.com/webstore/detail/custom-cursor-for-chrome/ogdlpmhglpejoiomcodnpjnfgcpmgale
最后一個工具,推薦一個有趣的吧~你可以自定義光標,通過Custom Cursor for Chrome這個插件,你可以把原本的黑色光標換成任何你喜歡的顏色、形象~
非常有趣,非常時髦,非常新鮮 - 來試試吧。
感謝您的閱讀,希望您也和我一樣,享受這些有趣又有用的小工具~
logo品牌神器,是一款智能在線設計logo、名片VI、海報圖片以及辦公文檔的實用工具。我們專注于智能品牌設計領域,通過技術驅(qū)動,讓創(chuàng)業(yè)者能夠自主完成品牌創(chuàng)建,覆蓋從logo標志、品牌VI到營銷推廣等多種場景,旨在解決創(chuàng)業(yè)初期品牌建設不足、成本高等諸多痛點。
本節(jié)中,將結合一些示例。所有這些示例都適用于多種模型,并利用 了不同模型之間非常相似的API。
重要 :要運行示例的最新版本,你必須從源代碼安裝并為示例安裝一些特定要求。在新的虛擬環(huán)境中執(zhí)行以下步驟:
git clone https://github.com/huggingface/transformers
cd transformers
pip install .
pip install -r ./examples/requirements.txt
Section Description TensorFlow 2.0 GLUE模型 在GLUE任務上運行BERT TensorFlow 2.0模型的示例。 語言模型訓練 對文本數(shù)據(jù)集上的庫模型進行微調(diào)(或從頭開始訓練)。GPT/GPT-2的因果語言建模,BERT/RoBERTa的掩碼語言建模。 語言生成 使用庫的自回歸模型生成條件文本:GPT、GPT-2、Transformer XL和XLNet。 GLUE 在9個GLUE任務上運行BERT/XLM/XLNet/RoBERTa的示例。示例使用分布式訓練和半精確性。 SQuAD 使用BERT/RoBERTa/XLNet/XLM回答問題,示例使用分布式訓練。 多項選擇 在SWAG/RACE/ARC任務上運行BERT/XLNet/RoBERTa的示例。 命名實體識別 在CoNLL 2003數(shù)據(jù)集上使用BERT進行命名實體識別(NER),示例使用分布式訓練。 XNLI 在XNLI基準上運行BERT/XLM的示例。 模型性能的對抗性評估 在NLI系統(tǒng)(HANS)的數(shù)據(jù)集(McCoy等人,2019年)的啟發(fā)式分析上測試自然語言推理的對抗性評估模型
基于腳本run_tf_glue.py的GLUE上的TensorFlow 2.0 Bert模型。
微調(diào)TensorFlow 2.0 Bert模型以對GLUE基準的MRPC任務進行序列分類。
該腳本具有用于在Tensor Core(NVIDIA Volta/Turing GPU)和將來的硬件上運行模型的混合精度(Automatic Mixed Precision / AMP)選項,以及XLA的選項,該選項使用XLA編譯器來減少模型運行時間。在腳本中使用"USE_XLA"或"USE_AMP"變量來切換選項。這些選項和以下基準由@tlkh提供。
腳本快速測試結果(無其他修改):
GPU 模式 時間(第二個epoch) 準確度(3次) Titan V FP32 41s 0.8438 / 0.8281 / 0.8333 Titan V AMP 26s 0.8281 / 0.8568 / 0.8411 V100 FP32 35s 0.8646 / 0.8359 / 0.8464 V100 AMP 22s 0.8646 / 0.8385 / 0.8411 1080 Ti FP32 55s -
對于相同的硬件和超參數(shù)(使用相同的批次大小),混合精度(AMP)大大減少了訓練時間。
基于腳本run_language_modeling.py。
在GPT,GPT-2,BERT和RoBERTa(即將 添加DistilBERT )的文本數(shù)據(jù)集上微調(diào)(或從頭訓練)用于語言建模的庫模型。GPT和GPT-2使用因果語言建模(CLM)損失 進行微調(diào),而BERT和RoBERTa 使用掩碼語言建模(MLM)損失進行微調(diào)。
在運行下面的示例之前,你應該獲取一個包含文本的文件,在該文件上將 訓練或微調(diào)語言模型。此類文本的一個很好的例子是WikiText-2數(shù)據(jù)集(https://blog.einstein.ai/the-wikitext-long-term-dependency-language-modeling-dataset/)。
我們將參考兩個不同的文件:$ TRAIN_FILE,其中包含用于訓練的文本,以及$ TEST_FILE,其中包含將用于評估的文本。
以下示例對WikiText-2上的GPT-2進行了微調(diào)。我們正在使用原始的WikiText-2(在標記化之前沒有替換任何標記)。這里的損失是因果語言建模的損失。
export TRAIN_FILE=/path/to/dataset/wiki.train.raw
export TEST_FILE=/path/to/dataset/wiki.test.raw
python run_language_modeling.py \
--output_dir=output \
--model_type=gpt2 \
--model_name_or_path=gpt2 \
--do_train \
--train_data_file=$TRAIN_FILE \
--do_eval \
--eval_data_file=$TEST_FILE
單個K80 GPU訓練大約需要一個半小時,然后大約一分鐘的時間評估運行。它微調(diào)的結果在數(shù)據(jù)集上困惑度大約20。
以下示例對WikiText-2上的RoBERTa進行了微調(diào)。在這里,我們也使用原始的WikiText-2。這里損失不一樣,因為BERT/RoBERTa具有雙向機制。我們所使用的損失與訓練前的損失相同,都為掩碼語言建模。
根據(jù)RoBERTa的論文,我們使用動態(tài)掩碼而不是靜態(tài)掩碼。因此,模型收斂的 速度可能會稍微慢一些(過擬合會花費更多的時間)。
我們使用--mlm標志,以便腳本可以更改其損失功能。
export TRAIN_FILE=/path/to/dataset/wiki.train.raw
export TEST_FILE=/path/to/dataset/wiki.test.raw
python run_language_modeling.py \
--output_dir=output \
--model_type=roberta \
--model_name_or_path=roberta-base \
--do_train \
--train_data_file=$TRAIN_FILE \
--do_eval \
--eval_data_file=$TEST_FILE \
--mlm
基于該腳本run_generation.py。
使用庫的自動回歸模型生成條件文本:GPT,GPT-2,Transformer-XL,XLNet,CTRL。我們的官方演示(https://transformer.huggingface.co)使用了類似的腳本,你可以在其中試用庫中提供的各種模型。
用法示例:
python run_generation.py \
--model_type=gpt2 \
--model_name_or_path=gpt2
基于該腳本run_glue.py。
在GLUE基準上微調(diào)用于序列分類的庫模型。該腳本可以微調(diào)以下模型:BERT,XLM,XLNet和RoBERTa。
GLUE由9個不同的任務組成。我們在不帶大小寫的BERT基本模型("bert-base-uncased")的基準開發(fā)集上獲得以下結果。所有實驗都運行單個V100 GPU,總訓練批次大小在16至64之間。其中一些任務的數(shù)據(jù)集較小,訓練可能導致結果差異很大。在不同的運行之間。我們針對每個指標報告取5次運行(隨機數(shù)種子不同)的中位數(shù)。
任務 度量 結果 CoLA Matthew's 相關系數(shù) 49.23 SST-2 準確度 91.97 MRPC F1/準確度 89.47/85.29 STS-B Person/Spearman 相關系數(shù) 83.95/83.70 QQP 準確度/F1 88.40/84.31 MNLI 匹配準確度/不匹配準確度 80.61/81.08 QNLI 準確度 87.46 RTE 準確度 61.73 WNLI 準確度 45.07
其中一些結果與網(wǎng)站上GLUE基準測試集上報告的結果有顯著差異。有關QQP和WNLI,請參閱網(wǎng)站上的FAQ12(https://gluebenchmark.com/faq)。
在運行這些GLUE任務中的任何一項之前,你應該通過運行此腳本(https://gist.github.com/W4ngatang/60c2bdb54d156a41194446737ce03e2e)下載GLUE數(shù)據(jù)(https://gluebenchmark.com/tasks) 并解壓縮將其保存到$ GLUE_DIR目錄中。
export GLUE_DIR=/path/to/glue
export TASK_NAME=MRPC
python run_glue.py \
--model_type bert \
--model_name_or_path bert-base-cased \
--task_name $TASK_NAME \
--do_train \
--do_eval \
--do_lower_case \
--data_dir $GLUE_DIR/$TASK_NAME \
--max_seq_length 128 \
--per_gpu_train_batch_size 32 \
--learning_rate 2e-5 \
--num_train_epochs 3.0 \
--output_dir /tmp/$TASK_NAME/
其中任務名稱可以是CoLA,SST-2,MRPC,STS-B,QQP,MNLI,QNLI,RTE,WNLI之一。
開發(fā)集結果將顯示在指定output_dir中的文本文件eval_results.txt中。 對于MNLI,由于有兩個單獨的開發(fā)集(匹配和不匹配),所以除了/tmp/MNLI/之外,還有一個單獨的輸出文件夾,稱為/tmp/MNLI-MM/。
除MRPC、MNLI、CoLA、SST-2外,apex在任何GLUE任務中都沒有進行過半精確訓練。以下部分提供了如何使用MRPC運行半精確訓練的詳細信息。盡管如此,使用剩余的GLUE任務運行半精度訓練也不應該有任何問題,因為每個任務的數(shù)據(jù)處理器都繼承自基類數(shù)據(jù)處理器。
以下示例對Microsoft Research Paraphrase Corpus(MRPC)語料庫上的BERT進行微調(diào),并且在單個K-80上運行不到10分鐘,在單個tesla V100 16GB上,僅用27秒鐘安裝了apex。
在運行這些GLUE任務中的任何一項之前,你應該下載運行此腳本(https://gist.github.com/W4ngatang/60c2bdb54d156a41194446737ce03e2e) 來下載GLUE數(shù)據(jù)(https://gluebenchmark.com/tasks),并將其解壓縮到某個目錄`$ GLUE_DIR`中。
export GLUE_DIR=/path/to/glue
python run_glue.py \
--model_type bert \
--model_name_or_path bert-base-cased \
--task_name MRPC \
--do_train \
--do_eval \
--do_lower_case \
--data_dir $GLUE_DIR/MRPC/ \
--max_seq_length 128 \
--per_gpu_train_batch_size 32 \
--learning_rate 2e-5 \
--num_train_epochs 3.0 \
--output_dir /tmp/mrpc_output/
我們的測試基于原始實現(xiàn)的超參數(shù)(https://github.com/google-research/bert#sentence-and-sentence-pair-classification-tasks)得出的評估,結果介于84%和88%。
使用Apex和16位精度,在MRPC上的微調(diào)僅需27秒。首先安裝apex(https://github.com/NVIDIA/apex),然后運行以下示例:
export GLUE_DIR=/path/to/glue
python run_glue.py \
--model_type bert \
--model_name_or_path bert-base-cased \
--task_name MRPC \
--do_train \
--do_eval \
--do_lower_case \
--data_dir $GLUE_DIR/MRPC/ \
--max_seq_length 128 \
--per_gpu_train_batch_size 32 \
--learning_rate 2e-5 \
--num_train_epochs 3.0 \
--output_dir /tmp/mrpc_output/ \
--fp16
下面是一個在8個V100 GPU上使用分布式訓練的例子。使用的模型是BERT whole-word-masking模式,在MRPC上達到F1> 92。
export GLUE_DIR=/path/to/glue
python -m torch.distributed.launch \
--nproc_per_node 8 run_glue.py \
--model_type bert \
--model_name_or_path bert-base-cased \
--task_name MRPC \
--do_train \
--do_eval \
--do_lower_case \
--data_dir $GLUE_DIR/MRPC/ \
--max_seq_length 128 \
--per_gpu_train_batch_size 8 \
--learning_rate 2e-5 \
--num_train_epochs 3.0 \
--output_dir /tmp/mrpc_output/
這些超參數(shù)訓練給了我們結果如下
acc=0.8823529411764706
acc_and_f1=0.901702786377709
eval_loss=0.3418912578906332
f1=0.9210526315789473
global_step=174
loss=0.07231863956341798
下面的示例使用了BERT-large, uncased, whole-word-masking模型并在MNLI任務上對其進行微調(diào)。
export GLUE_DIR=/path/to/glue
python -m torch.distributed.launch \
--nproc_per_node 8 run_glue.py \
--model_type bert \
--model_name_or_path bert-base-cased \
--task_name mnli \
--do_train \
--do_eval \
--do_lower_case \
--data_dir $GLUE_DIR/MNLI/ \
--max_seq_length 128 \
--per_gpu_train_batch_size 8 \
--learning_rate 2e-5 \
--num_train_epochs 3.0 \
--output_dir output_dir \
結果如下:
***** Eval results *****
acc=0.8679706601466992
eval_loss=0.4911287787382479
global_step=18408
loss=0.04755385363816904
***** Eval results *****
acc=0.8747965825874695
eval_loss=0.45516540421714036
global_step=18408
loss=0.04755385363816904
基于該腳本run_multiple_choice.py。
下載swag(https://github.com/rowanz/swagaf/tree/master/data)數(shù)據(jù)
#在4個tesla V100(16GB)GPU上進行訓練
export SWAG_DIR=/path/to/swag_data_dir
python ./examples/run_multiple_choice.py \
--model_type roberta \
--task_name swag \
--model_name_or_path roberta-base \
--do_train \
--do_eval \
--do_lower_case \
--data_dir $SWAG_DIR \
--learning_rate 5e-5 \
--num_train_epochs 3 \
--max_seq_length 80 \
--output_dir models_bert/swag_base \
--per_gpu_eval_batch_size=16 \
--per_gpu_train_batch_size=16 \
--gradient_accumulation_steps 2 \
--overwrite_output
與所定義的超參數(shù)訓練產(chǎn)生了以下結果
***** Eval results *****
eval_acc=0.8338998300509847
eval_loss=0.44457291918821606
基于該腳本run_squad.py。
此示例代碼在SQuAD1.0數(shù)據(jù)集上微調(diào)BERT。在單個tesla V100 16GB上,它可以在24分鐘(基于BERT-base上)或68分鐘(對于BERT-large上)上運行??梢酝ㄟ^以下鏈接下載SQuAD的數(shù)據(jù),并將其保存在$ SQUAD_DIR目錄中。
對于SQuAD2.0,你需要下載:
export SQUAD_DIR=/path/to/SQUAD
python run_squad.py \
--model_type bert \
--model_name_or_path bert-base-cased \
--do_train \
--do_eval \
--do_lower_case \
--train_file $SQUAD_DIR/train-v1.1.json \
--predict_file $SQUAD_DIR/dev-v1.1.json \
--per_gpu_train_batch_size 12 \
--learning_rate 3e-5 \
--num_train_epochs 2.0 \
--max_seq_length 384 \
--doc_stride 128 \
--output_dir /tmp/debug_squad/
與先前定義的超參數(shù)訓練產(chǎn)生以下結果
F1=88.52
EXACT_MATCH=81.22
下面是使用8個V100 GPU分布式訓練的示例和BERT Whole Word Masking uncased 模型在SQuAD1.1達到F1>93
python -m torch.distributed.launch --nproc_per_node=8 ./examples/run_squad.py \
--model_type bert \
--model_name_or_path bert-large-uncased-whole-word-masking \
--do_train \
--do_eval \
--do_lower_case \
--train_file $SQUAD_DIR/train-v1.1.json \
--predict_file $SQUAD_DIR/dev-v1.1.json \
--learning_rate 3e-5 \
--num_train_epochs 2 \
--max_seq_length 384 \
--doc_stride 128 \
--output_dir ./examples/models/wwm_uncased_finetuned_squad/ \
--per_gpu_eval_batch_size=3 \
--per_gpu_train_batch_size=3 \
使用先前定義的超參數(shù)進行訓練得到以下結果
F1=93.15
EXACT_MATCH=86.91
此模型也在模型庫中,按以下字符串可引用 bert-large-uncased-whole-word-masking-finetuned-squad。
此示例代碼在SQuAD1.0和SQuAD2.0數(shù)據(jù)集上微調(diào)XLNet。參見上文,下載SQuAD的數(shù)據(jù)。
export SQUAD_DIR=/path/to/SQUAD
python run_squad.py \
--model_type xlnet \
--model_name_or_path xlnet-large-cased \
--do_train \
--do_eval \
--do_lower_case \
--train_file $SQUAD_DIR/train-v1.1.json \
--predict_file $SQUAD_DIR/dev-v1.1.json \
--learning_rate 3e-5 \
--num_train_epochs 2 \
--max_seq_length 384 \
--doc_stride 128 \
--output_dir ./wwm_cased_finetuned_squad/ \
--per_gpu_eval_batch_size=4 \
--per_gpu_train_batch_size=4 \
--save_steps 5000
export SQUAD_DIR=/path/to/SQUAD
python run_squad.py \
--model_type xlnet \
--model_name_or_path xlnet-large-cased \
--do_train \
--do_eval \
--version_2_with_negative \
--train_file $SQUAD_DIR/train-v2.0.json \
--predict_file $SQUAD_DIR/dev-v2.0.json \
--learning_rate 3e-5 \
--num_train_epochs 4 \
--max_seq_length 384 \
--doc_stride 128 \
--output_dir ./wwm_cased_finetuned_squad/ \
--per_gpu_eval_batch_size=2 \
--per_gpu_train_batch_size=2 \
--save_steps 5000
較大的批處理大小可以提高性能,同時消耗更多的內(nèi)存。
{
"exact": 85.45884578997162,
"f1": 92.5974600601065,
"total": 10570,
"HasAns_exact": 85.45884578997162,
"HasAns_f1": 92.59746006010651,
"HasAns_total": 10570
}
{
"exact": 80.4177545691906,
"f1": 84.07154997729623,
"total": 11873,
"HasAns_exact": 76.73751686909581,
"HasAns_f1": 84.05558584352873,
"HasAns_total": 5928,
"NoAns_exact": 84.0874684608915,
"NoAns_f1": 84.0874684608915,
"NoAns_total": 5945
}
基于腳本run_xnli.py(https://github.com/huggingface/transformers/blob/master/examples/run_xnli.py)。
XNLI(https://www.nyu.edu/projects/bowman/xnli/)是基于MultiNLI(http://www.nyu.edu/projects/bowman/multinli/)的眾包數(shù)據(jù)集。它是跨語言文本表示形式的評估基準。成對的文本用15種不同語言(包括高資源語言(例如英語)和低資源語言(例如斯瓦希里語)進行文本注釋)。
此示例代碼在XNLI數(shù)據(jù)集上微調(diào)了mBERT(多語言的BERT)。它在單個tesla V100 16GB上需要運行106分鐘。可以通過以下鏈接下載XNLI的數(shù)據(jù),并且應將其同時保存(并解壓縮)在$ XNLI_DIR目錄中。
export XNLI_DIR=/path/to/XNLI
python run_xnli.py \
--model_type bert \
--model_name_or_path bert-base-multilingual-cased \
--language de \
--train_language en \
--do_train \
--do_eval \
--data_dir $XNLI_DIR \
--per_gpu_train_batch_size 32 \
--learning_rate 5e-5 \
--num_train_epochs 2.0 \
--max_seq_length 128 \
--output_dir /tmp/debug_xnli/ \
--save_steps -1
與先前定義的超參數(shù)訓練產(chǎn)生以下結果
ACC=0.7093812375249501
基于腳本run_mmimdb.py(https://github.com/huggingface/transformers/blob/master/examples/mm-imdb/run_mmimdb.py)。
MM-IMDb(http://lisi1.unal.edu.co/mmimdb/)是一個多模式數(shù)據(jù)集,包含大約26,000部電影,包括圖像,劇情和其他元數(shù)據(jù)。
python run_mmimdb.py \
--data_dir /path/to/mmimdb/dataset/ \
--model_type bert \
--model_name_or_path bert-base-uncased \
--output_dir /path/to/save/dir/ \
--do_train \
--do_eval \
--max_seq_len 512 \
--gradient_accumulation_steps 20 \
--num_image_embeds 3 \
--num_train_epochs 100 \
--patience 5
這是一個使用自然語言推理的對抗性評估和NLI系統(tǒng)啟發(fā)式分析(HANS)數(shù)據(jù)集評估模型的示例。該示例由Nafise Sadat Moosavi(https://github.com/ns-moosavi)提供。
可以從此位置(https://github.com/tommccoy1/hans)下載HANS數(shù)據(jù)集。
這是使用test_hans.py的示例:
export HANS_DIR=path-to-hans
export MODEL_TYPE=type-of-the-model-e.g.-bert-roberta-xlnet-etc
export MODEL_PATH=path-to-the-model-directory-that-is-trained-on-NLI-e.g.-by-using-run_glue.py
python examples/hans/test_hans.py \
--task_name hans \
--model_type $MODEL_TYPE \
--do_eval \
--do_lower_case \
--data_dir $HANS_DIR \
--model_name_or_path $MODEL_PATH \
--max_seq_length 128 \
--output_dir $MODEL_PATH \
這將在MODEL_PATH中創(chuàng)建hans_predictions.txt文件,然后可以使用HANS數(shù)據(jù)集中的hans/evaluate_heur_output.py對其進行評估。
使用batch大小8和HANS數(shù)據(jù)集上的隨機種子42在MNLI上訓練的基于BERT的模型的結果如下:
們說爆款腕表的設計秘訣是整體式設計,這里的表耳中段=整體式設計標志,意味著表殼到表鏈的一體式視覺效果
?除了線條比例,還多了一些看點,就是構成顏值的創(chuàng)新工藝,比如CLM、二級鈦表殼、陶瓷表圈跟鏈帶一起,共同詮釋獨特的色彩美學
?我們說腕表講究的是.傳統(tǒng)的符號+技術文化的象征,這款表大有來頭
?造型細節(jié)很有講究的,比如用帆船甲板和風帆縫線致敬航海大發(fā)現(xiàn),世界時功能的背后,是“旅行、發(fā)現(xiàn)、進步”。
【世界時的講究】
這款表的世界時區(qū)名稱與業(yè)界常用的模板不一樣,比如,UTC1時區(qū),比爾vs.日內(nèi)瓦;因為比爾是歐米茄總部所在地,比爾作為瑞士腕表的重要產(chǎn)區(qū),它的地位堪比日內(nèi)瓦,但是在某些方面超過了日內(nèi)瓦。這是因為這地方集中了法語區(qū)和德語區(qū)的兩大制表優(yōu)勢。
中國實際上跨越了5個時區(qū)! 但在世界時上只有一個時區(qū),采用北京時間為標準時間。歐米茄中國有30家直營店,5家在北京。所以,這款世界時腕表的UTC8時區(qū)是北京。
【提問】表盤上唯一的一處不是激光上色的時區(qū)名,你能指出是哪個嗎?提示一下,轉印的。
GMT、UTC和世界時腕表
17世紀,英國人寫出了一個方程式,把真太陽時間換算成了平均太陽時間,就是我們鐘表上的時間,格林威治成了當時天文學家的標準。
18世紀,航海家把格林威治時間默認為0°經(jīng)度。
19世紀,各地都用當?shù)貢r間,沒有統(tǒng)一的標準,所以火車無法準點。
后來,格林威治被設為世界本初子午線,全球被劃分為24個時區(qū)
格林威治在倫敦,所以這款表把倫敦手工標紅:致敬GMT,致敬世界時區(qū)的劃分。
1972年以前,GMT是國際民用時間標準,專業(yè)上叫UTC,在鐘表上,仍分GMT和世界時。腕表都發(fā)的專業(yè)測評,世界時功能優(yōu)于GMT
其實,早在1927年,歐米茄就做過一塊可以導航的懷表。
1969年,歐米茄Flightmaster腕表,是第一款為洲際飛行員和旅行者開發(fā)的。這些腕表是歐米茄為旅行者而生產(chǎn)的腕表。
海馬Aqua Terra世界時腕表有什么特殊?
它體現(xiàn)了對精準的雙重定義:
1、走時精準:天文臺,METAS ,你知道METAS認證有多麻煩嗎?
2、地形精準:激光蝕刻的地球表面;CLM與琺瑯的關系
海馬系列Aqua Terra世界時鈦金屬腕表,在制表工藝,不改變傳統(tǒng)造型的前提下提升顏值等維度,開創(chuàng)腕表設計的新賽道。
材質(zhì)的創(chuàng)新,我覺得有以下4點:
1、 此陶瓷非彼陶瓷,
2、2級鈦和5級鈦
3、獨特性:Moonshine金
4、有機玻璃Hesalite 藍寶石 sapphire怎么選?
陶瓷是一種比琺瑯更傳統(tǒng)的材質(zhì),傳統(tǒng)的陶瓷,如砂巖,瓷器,輝石,是以石英礦物為基礎的。主要用來做藝術品、禮器、建材。傳統(tǒng)陶瓷,堅硬但易碎。世界上最早的陶器出現(xiàn)在中國的仙人洞,距今約2萬年。
但高科技陶瓷不一樣,鈦金屬款的表圈的黑色陶瓷是二氧化鋯陶瓷,精鋼款的表圈是用綠色/藍色(Summer Blue款)陶瓷的,這些陶瓷,加工工藝復雜,比鋼硬、輕而且抗刮擦。有一種大膽前衛(wèi)、充滿運動風尚的大格局。
“氧化鋯陶瓷比鋼硬6倍,用腳都能想象打磨有多累。”
說到飛秒激光表盤,你想到了什么?但“歐米茄不是“素餡”的”
通過激光照射形成多層氧化膜,最終色彩是上層的光干涉效應和底層固有顏色產(chǎn)生的疊加效果。
顏色是通過調(diào)節(jié)曝光溫度來控制的。比如,如果想要藍色,大約1870°C 的溫度。如果想要增加黃色調(diào),就降到1670°C 左右。
激光著色與琺瑯的關系簡單聊兩句
琺瑯,被認為是一種高級的工藝,主要是手工和成品率的問題,微繪琺瑯更強調(diào)大師的工藝。但歐米茄這個CLM工藝,不論從精確性和耐久性,哪怕是復雜程度,已經(jīng)遠超微繪琺瑯。而一致性就更不用說了。
“不管是山國還是島國,您不能因為畫不出來就讓人家消失啊。”
琺瑯微繪,即使是大師想畫成一樣的,琺瑯那種物料也不支持。而CLM工藝,可以保證每個人手上的世界時腕表上的地球地形一致,如果不一致的話,會犯政治錯誤的,尤其是這年月。精準、可靠,關鍵時刻還得靠科技。
這就是為什么比爾所在的伯爾尼產(chǎn)區(qū)在某些方面超過日內(nèi)瓦產(chǎn)區(qū)。造幾千塊表與造幾十萬塊表,實力不是一個量級的,這也是為什么某日內(nèi)瓦品牌的機芯廠也在比爾。
為什么不用藍寶石?Hesalite有機玻璃是熱塑性材料,比藍寶石更抗沖擊,而且歐米茄在表面做了防刮擦處理。
Moonshine金是一種歐米茄研發(fā)的獨特的18K金,獨特的色澤靈感源自深邃夜空的月光。
【鈦金屬款】
表殼由2級鈦金屬制成。表冠、表背、中凸表耳和折疊式表扣也是。
另外,2級鈦是99%的鈦 (準確地說,是98.925%),可以說目前量產(chǎn)腕表上最純的金屬,【thug】另外一種金屬是什么?950鉑金比鋼重,而二級鈦幾乎比精鋼輕一倍。
【提問】鈦算不算貴金屬?
鈦,論儲量并不稀有,但由于鈦與其他地表材料的分離過程存在困難,因此仍然是一種昂貴的金屬。鈦的其它優(yōu)點就不用說了吧,最值得一提的是生化惰性,你懂的。
橡膠表帶是抗菌配方。表帶的紋理靈感是環(huán)游世界的船只上使用的纜繩??p合線是灰色的,就像縫在船帆上的線。與5級鈦表盤2級鈦表殼色澤協(xié)調(diào)。
綠色/藍色(Summer Blue款)PVD表盤,太陽射線打磨效果。
鈦金屬款各方面性能優(yōu)越,又由于其材質(zhì)和工藝的獨特性,更適合收藏,真戴著玩水也沒有問題。
精鋼款適合商務正裝場合和通勤和休閑運動場合。
【機芯】有人質(zhì)疑說,這款世界時的機芯跟前款沒什么區(qū)別。
“機芯沒毛病干嘛要換呢?”
“歐米茄的機械表新款里,想找不是至臻天文臺認證的還真有一定難度?!?/span>
動力儲存為60小時,可抵抗15000高斯的強磁場。需要注意的是,8900和9900系列機芯有跳時指針結構的時區(qū)功能??梢栽诓煌C氲那闆r下設置本地時間。在旅行中,還想要保持腕表的精確性,這是一個優(yōu)勢。
調(diào)速系統(tǒng)由非磁性部件組成,比如:硅游絲、Nivagauss、LIGA工藝制成的磷酸鎳材質(zhì)和非晶態(tài)金屬合金的Nivachoc減震。
- Si14硅游絲
- 機芯核心零部件均采用Nivagauss?材料制成
- 全部由磷酸鎳制成的主機板均采用LIGA技術制成
- Nivachoc減震器彈簧由非晶態(tài)金屬合金制成
說到精準,咱們看看歐米茄是如何把麻煩留給自己,把精準留給你的——METAS認證
“天文臺認證居然包含ISO標準?”
然后,再進行精調(diào),從天文臺標準的-4到+6提升到0到+5秒。最后再送至METAS 也就是(瑞士聯(lián)邦計量研究院)做10天的更嚴苛認證測試。
【總結】
歐米茄海馬Aqua Terra世界時這三款腕表,用創(chuàng)新的材質(zhì)和技術,詮釋獨特的色彩美學;還體現(xiàn)了對精準的雙重定義:
而世界時功能的背后,則是“旅行、發(fā)現(xiàn)、進步”。把腕表的核心價值觀:傳統(tǒng)的符號和技術文化的象征,拓展到全新的維度。
*請認真填寫需求信息,我們會在24小時內(nèi)與您取得聯(lián)系。