Warning: error_log(/data/www/wwwroot/hmttv.cn/caches/error_log.php): failed to open stream: Permission denied in /data/www/wwwroot/hmttv.cn/phpcms/libs/functions/global.func.php on line 537 Warning: error_log(/data/www/wwwroot/hmttv.cn/caches/error_log.php): failed to open stream: Permission denied in /data/www/wwwroot/hmttv.cn/phpcms/libs/functions/global.func.php on line 537
管今年世界上發生了這么多事情,我們還是有機會看到很多驚人的研究成果。特別是在人工智能領域。此外,今年還強調了許多重要的方面,比如倫理方面、重要的偏見等等。人工智能以及我們對人類大腦及其與人工智能的聯系的理解在不斷發展,在不久的將來顯示出有前途的應用。
以下是本年度最有趣的研究論文,如果你錯過了其中的任何一篇的話。簡而言之,它基本上是一個根據發布日期列出的人工智能和數據科學最新突破的列表,配有清晰的視頻解釋、更深入的文章鏈接和代碼(如果適用的話)。
本文最后列出了每篇論文的完整參考文獻。
YOLOv4: Optimal Speed and Accuracy of Object Detection [1]
這第4個版本由Alexey Bochkovsky等人于2020年4月在論文"YOLOv4: Optimal Speed and Accuracy of Object Detection"中介紹。該算法的主要目標是在精度方面做出一個高質量的超高速目標檢測器。
DeepFaceDrawing: Deep Generation of Face Images from Sketches [2]
您現在可以使用這種新的圖像到圖像轉換技術,從粗糙甚至不完整的草圖生成高質量的人臉圖像,無需繪圖技巧!如果你的畫技和我一樣差,你甚至可以調整眼睛、嘴巴和鼻子對最終圖像的影響。讓我們看看它是否真的有效,以及他們是如何做到的。
Learning to Simulate Dynamic Environments with GameGAN [3]
這項研究由英偉達多倫多AI實驗室和日本游戲大廠萬代南夢宮 *BANDAI NAMCO) 一同開發,技術來自前者,數據來自后者。
簡單來說,僅對簡單的游戲錄像和玩家輸入進行學習,GameGAN 就能夠模擬出接近真實游戲的環境,還不需要游戲引擎和底層代碼。它的底層是在 AI 領域很有名的生成對抗網絡 (GAN)。
PULSE: Self-Supervised Photo Upsampling via Latent Space Exploration of Generative Models [4]
它可以把超低分辨率的16x16圖像轉換成1080p高清晰度的人臉!你不相信我?然后你就可以像我一樣,在不到一分鐘的時間里自己試穿一下!
Unsupervised Translation of Programming Languages [5]
這種新模型在沒有任何監督的情況下將代碼從一種編程語言轉換成另一種編程語言!它可以接受一個Python函數并將其轉換成c++函數,反之亦然,不需要任何先前的例子!它理解每種語言的語法,因此可以推廣到任何編程語言!我們來看看他們是怎么做到的。
PIFuHD: Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization [6]
這個人工智能從2D圖像生成3D高分辨率的人的重建!它只需要一個單一的圖像你生成一個3D頭像,看起來就像你,甚至從背后!
High-Resolution Neural Face Swapping for Visual Effects [7]
迪士尼的研究人員在論文中開發了一種新的高分辨率視覺效果人臉交換算法。它能夠以百萬像素的分辨率渲染照片真實的結果。。它們的目標是在保持actor的性能的同時,從源actor交換目標actor的外觀。這是非常具有挑戰性的,在很多情況下都是有用的,比如改變角色的年齡,當演員不在的時候,甚至當它涉及到一個對主要演員來說太危險的特技場景。目前的方法需要大量的逐幀動畫和專業人員的后期處理。
Swapping Autoencoder for Deep Image Manipulation [8]
這種新技術可以改變任何圖片的紋理,同時使用完全無監督的訓練保持現實!結果看起來甚至比GANs能實現的還要好,而且速度更快!它甚至可以用來制作深度贗品!
GPT-3: Language Models are Few-Shot Learners [9]
當前最先進的NLP系統很難推廣到不同的任務上。 他們需要在成千上萬個示例的數據集上進行微調,而人類只需要查看幾個示例即可執行新的語言任務。 這是GPT-3的目標,目的是改善語言模型的任務不可知特性。
Learning Joint Spatial-Temporal Transformations for Video Inpainting [10]
與當前的最新技術相比,該AI可以填充移動的物體后面的缺失像素,并以更高的準確性和更少的模糊度重建整個視頻!
Image GPT — Generative Pretraining from Pixels [11]
一個好的人工智能,比如Gmail中使用的那個,可以生成連貫的文本并完成你的短語。這是使用相同的原理來完成圖像處理! 全部在無監督的訓練中完成,根本不需要標簽!
Learning to Cartoonize Using White-box Cartoon Representations [12]
該AI可以將您想要的任何圖片或視頻進行卡通化!
Neural Re-Rendering of Humans from a Single Image [14]
該算法將身體的姿勢和形狀表示為參數網格,可以從單個圖像進行重構并輕松放置。 給定一個人的圖像,他們便能夠以不同的姿勢或從另一個輸入圖像獲得的不同衣服來創建該人的合成圖像。
I2L-MeshNet: Image-to-Lixel Prediction Network for Accurate 3D Human Pose and Mesh Estimation from a Single RGB Image [15]
目標是提出一種從單個RGB圖像進行3D人體姿勢和網格估計的新技術。 他們稱其為I2L-MeshNet。 I2L代表"圖像到像素"。 就像體素,體積+像素,是三維空間中的量化單元格一樣,他們將lixel,線和像素定義為一維空間中的量化單元格。 他們的方法優于以前的方法,并且代碼是公開可用的!
Beyond the Nav-Graph: Vision-and-Language Navigation in Continuous Environments [16]
語言導航是一個被廣泛研究的領域,也是一個非常復雜的領域。 對于一個人來說,走過一所房子來拿掉您放在床頭柜上的咖啡就很簡單了。 但這對于AI代理來說是另外一回事了,它是一個使用深度學習執行任務的自主AI驅動的系統。
RAFT: Recurrent All-Pairs Field Transforms for Optical Flow [17]
ECCV 2020最佳論文獎授予普林斯頓大學團隊。 他們為光流開發了一種新的端到端可訓練模型。 他們的方法超越了跨多個數據集的最新架構的準確性,并且效率更高。
Crowdsampling the Plenoptic Function [18]
利用從互聯網上獲得的公開照片,他們能夠重構旅游場景的多個視點,從而保留逼真的陰影和照明! 這是用于真實感場景渲染的最先進技術的巨大進步,其結果簡直令人贊嘆。
Old Photo Restoration via Deep Latent Space Translation [19]
想象一下,當您祖母18歲時,她的老照片,折疊甚至撕裂的照片都清晰無瑕,清晰度很高。 這就是所謂的舊照片恢復,本文只是使用深度學習方法開辟了一條全新的途徑來解決這一問題。
Neural circuit policies enabling auditable autonomy [20]
來自IST Austria和MIT的研究人員已經成功地使用一種新的人工智能系統訓練了自動駕駛汽車,該系統基于細小動物(如線蟲)的大腦。 他們實現了這一點,與流行的深度神經網絡(如Inceptions,Resnets或VGG)所需的數百萬個神經元相比,只有少數神經元能夠控制自動駕駛汽車。 他們的網絡僅使用75,000個參數(由19個控制神經元而不是數百萬個參數)就可以完全控制汽車!
Lifespan Age Transformation Synthesis [21]
來自Adobe Research的一組研究人員僅根據該人的一張照片開發了一種用于年齡轉換合成的新技術。 它可以從您發送的任何圖片中生成不同年齡的圖片。
DeOldify [22]
DeOldify是一種使舊的黑白圖像甚至膠片畫面著色和還原的技術。 它是由Jason Antic開發的,并且仍在更新中。 現在,這是對黑白圖像進行著色的最新技術,并且所有內容都是開源的,但是稍后我們將再次討論。
COOT: Cooperative Hierarchical Transformer for Video-Text Representation Learning [23]
顧名思義,它使用Transformer將視頻及其一般描述作為輸入來為視頻的每個序列生成準確的文本描述。
Stylized Neural Painting [24]
這種圖像到繪畫的翻譯方法,該使用一種新穎的方法模擬多種樣式的真實畫家,并且該方法不涉及任何GAN架構,這與所有當前的最新方法不同!
Is a Green Screen Really Necessary for Real-Time Portrait Matting? [25]
人臉消光是一項非常有趣的任務,目標是在圖片中找到任何人并從中刪除背景。 由于任務的復雜性,必須找到具有完美輪廓的一個或多個人,這確實很難實現。 在本文中,我將回顧這些年來使用的最佳技術以及一種將于2020年11月29日發布的新穎方法。許多技術都在使用基本的計算機視覺算法來完成此任務,例如GrabCut算法,該算法非常快,但不是非常精確
ADA: Training Generative Adversarial Networks with Limited Data [26]
借助NVIDIA開發的這種新的訓練方法,您可以使用十分之一的圖像訓練強大的生成模型! 使許多無法訪問太多圖像的應用程序成為可能!
Improving Data‐Driven Global Weather Prediction Using Deep Convolutional Neural Networks on a Cubed Sphere [27]
當前的傳統天氣預報方法使用了我們所謂的"數值天氣預報"模型。 它使用大氣和海洋的數學模型根據當前條件預測天氣。 它于1920年代首次引入,并在1950年代使用計算機模擬產生了逼真的結果。 這些數學模型可用于預測短期和長期預測。 但是它的計算量很大,無法將其預測基于像深度神經網絡一樣多的數據。 這就是為什么它如此有前途的部分原因。 這些當前的數值天氣預報模型已經使用機器學習來改進預報作為后處理工具。 天氣預報越來越受到機器學習研究人員的關注,已經產生了很好的效果。
NeRV: Neural Reflectance and Visibility Fields for Relighting and View Synthesis [28]
這種新方法能夠生成完整的3維場景,并具有確定場景照明的能力。 與以前的方法相比,所有這些都具有非常有限的計算成本和驚人的結果。
如您所見,這是人工智能領域非常有見地的一年,我很高興看到2021年會發生什么! 我一定會覆蓋最激動人心和有趣的論文,
作者:Louis Bouchard
原文地址 https://github.com/louisfb01/BestAIpaper_2020
最后所有的論文列表在這里:
[1] A. Bochkovskiy, C.-Y. Wang, and H.-Y. M. Liao, Yolov4: Optimal speed and accuracy of object detection, 2020. arXiv:2004.10934 [cs.CV].
[2] S.-Y. Chen, W. Su, L. Gao, S. Xia, and H. Fu, "DeepFaceDrawing: Deep generation of face images from sketches," ACM Transactions on Graphics (Proceedings of ACM SIGGRAPH2020), vol. 39, no. 4, 72:1–72:16, 2020.
[3] S. W. Kim, Y. Zhou, J. Philion, A. Torralba, and S. Fidler, "Learning to Simulate DynamicEnvironments with GameGAN," in IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Jun. 2020.
[4] S. Menon, A. Damian, S. Hu, N. Ravi, and C. Rudin, Pulse: Self-supervised photo upsampling via latent space exploration of generative models, 2020. arXiv:2003.03808 [cs.CV].
[5] M.-A. Lachaux, B. Roziere, L. Chanussot, and G. Lample, Unsupervised translation of programming languages, 2020. arXiv:2006.03511 [cs.CL].
[6] S. Saito, T. Simon, J. Saragih, and H. Joo, Pifuhd: Multi-level pixel-aligned implicit function for high-resolution 3d human digitization, 2020. arXiv:2004.00452 [cs.CV].
[7] J. Naruniec, L. Helminger, C. Schroers, and R. Weber, "High-resolution neural face-swapping for visual effects," Computer Graphics Forum, vol. 39, pp. 173–184, Jul. 2020.doi:10.1111/cgf.14062.
[8] T. Park, J.-Y. Zhu, O. Wang, J. Lu, E. Shechtman, A. A. Efros, and R. Zhang,Swappingautoencoder for deep image manipulation, 2020. arXiv:2007.00653 [cs.CV].
[9] T. B. Brown, B. Mann, N. Ryder, M. Subbiah, J. Kaplan, P. Dhariwal, A. Neelakantan, P.Shyam, G. Sastry, A. Askell, S. Agarwal, A. Herbert-Voss, G. Krueger, T. Henighan, R. Child, A. Ramesh, D. M. Ziegler, J. Wu, C. Winter, C. Hesse, M. Chen, E. Sigler, M. Litwin, S.Gray, B. Chess, J. Clark, C. Berner, S. McCandlish, A. Radford, I. Sutskever, and D. Amodei,"Language models are few-shot learners," 2020. arXiv:2005.14165 [cs.CL].
[10] Y. Zeng, J. Fu, and H. Chao, Learning joint spatial-temporal transformations for video in-painting, 2020. arXiv:2007.10247 [cs.CV].
[11] M. Chen, A. Radford, R. Child, J. Wu, H. Jun, D. Luan, and I. Sutskever, "Generative pretraining from pixels," in Proceedings of the 37th International Conference on Machine Learning, H. D. III and A. Singh, Eds., ser. Proceedings of Machine Learning Research, vol. 119, Virtual: PMLR, 13–18 Jul 2020, pp. 1691–1703. [Online]. Available:http://proceedings.mlr.press/v119/chen20s.html.
[12] Xinrui Wang and Jinze Yu, "Learning to Cartoonize Using White-box Cartoon Representations.", IEEE Conference on Computer Vision and Pattern Recognition, June 2020.
[13] S. Mo, M. Cho, and J. Shin, Freeze the discriminator: A simple baseline for fine-tuning gans,2020. arXiv:2002.10964 [cs.CV].
[14] K. Sarkar, D. Mehta, W. Xu, V. Golyanik, and C. Theobalt, "Neural re-rendering of humans from a single image," in European Conference on Computer Vision (ECCV), 2020.
[15] G. Moon and K. M. Lee, "I2l-meshnet: Image-to-lixel prediction network for accurate 3d human pose and mesh estimation from a single rgb image," in European Conference on ComputerVision (ECCV), 2020
[16] J. Krantz, E. Wijmans, A. Majumdar, D. Batra, and S. Lee, "Beyond the nav-graph: Vision-and-language navigation in continuous environments," 2020. arXiv:2004.02857 [cs.CV].
[17] Z. Teed and J. Deng, Raft: Recurrent all-pairs field transforms for optical flow, 2020. arXiv:2003.12039 [cs.CV].
[18] Z. Li, W. Xian, A. Davis, and N. Snavely, "Crowdsampling the plenoptic function," inProc.European Conference on Computer Vision (ECCV), 2020.
[19] Z. Wan, B. Zhang, D. Chen, P. Zhang, D. Chen, J. Liao, and F. Wen, Old photo restoration via deep latent space translation, 2020. arXiv:2009.07047 [cs.CV].
[20] Lechner, M., Hasani, R., Amini, A. et al. Neural circuit policies enabling auditable autonomy. Nat Mach Intell 2, 642–652 (2020). https://doi.org/10.1038/s42256-020-00237-3
[21] R. Or-El, S. Sengupta, O. Fried, E. Shechtman, and I. Kemelmacher-Shlizerman, "Lifespanage transformation synthesis," in Proceedings of the European Conference on Computer Vision(ECCV), 2020.
[22] Jason Antic, Creator of DeOldify, https://github.com/jantic/DeOldify
[23] S. Ging, M. Zolfaghari, H. Pirsiavash, and T. Brox, "Coot: Cooperative hierarchical trans-former for video-text representation learning," in Conference on Neural Information ProcessingSystems, 2020.
[24] Z. Zou, T. Shi, S. Qiu, Y. Yuan, and Z. Shi, Stylized neural painting, 2020. arXiv:2011.08114[cs.CV].
[25] Z. Ke, K. Li, Y. Zhou, Q. Wu, X. Mao, Q. Yan, and R. W. Lau, "Is a green screen really necessary for real-time portrait matting?" ArXiv, vol. abs/2011.11961, 2020.
[26] T. Karras, M. Aittala, J. Hellsten, S. Laine, J. Lehtinen, and T. Aila, Training generative adversarial networks with limited data, 2020. arXiv:2006.06676 [cs.CV].
[27] J. A. Weyn, D. R. Durran, and R. Caruana, "Improving data-driven global weather prediction using deep convolutional neural networks on a cubed sphere", Journal of Advances in Modeling Earth Systems, vol. 12, no. 9, Sep. 2020, issn: 1942–2466.doi:10.1029/2020ms002109
[28] P. P. Srinivasan, B. Deng, X. Zhang, M. Tancik, B. Mildenhall, and J. T. Barron, "Nerv: Neural reflectance and visibility fields for relighting and view synthesis," in arXiv, 2020.
文是從八個方面來對2018的網頁設計的總結,一起來看看~
本文翻譯自澳大利亞設計師Rylan Ziesing及其設計團隊Rhino Design對2018年網頁設計的總結。
漸變色和豐富的色彩,以其自身的美學魅力和強烈的視覺效果,而為設計師所青睞并大量使用。隨著此類設計風格需求的日益增長,廣闊的色域和漸變色將在2018繼續流行下去。
對于移動網絡來說,2017年是具有里程碑意義的一年,它的使用量最終超過了桌面瀏覽量。這也意味著網頁設計師將比以往更注重移動設備用戶的需求。
(譯者注:2017《移動互聯網藍皮書》發布,移動互聯網用戶達到10.93億,而PC用戶停滯不前。無論用戶使用哪種設備,筆記本、智能手機還是Pad,產品頁面都應當能夠自動切換分辨率、圖片尺寸及相關腳本功能等,以適應不同設備;換句話說,頁面應該有能力去自動響應用戶的設備環境。)
設計一個網站時我們需要考慮諸多因素,如網速、技術能力、用戶類型等。從中可以看到,為什么動效和交互式界面,會成為2018網頁設計主流趨勢中的重要部分,尤其當人們的審美要求越來越高、技術棧越來越先進。
(譯者注:技術棧一般來說是指將N種技術互相組合在一起(N>1),作為一個有機的整體來實現某種目的;也可以指掌握這些技術以及配合使用的經驗,比方說:LAMP LNMP MEAN都是常見的Web技術棧。這里的棧就是英文stack的意思,即一些東西堆在一起,而非數據結構的棧的意思。)
在數字產品的營銷領域,圖像的選擇是我們遇到過的最有意思的挑戰。整個設計團隊都會針對這個問題進行討論,通常最終會歸結于以下兩種選擇:
前者主要強調產品的體驗、特性和功能,而后者更突出產品與用戶的交互,即產品對人們生活產生的影響。
Material Design是谷歌基于Android系統推出的全新設計語言,一開始可能主要面向移動設備界面,但后來無論是在移動設備還是PC平臺,它的流行度和使用量都呈現爆發式增長。
其實Material Design是過去幾年扁平化設計趨勢的延續,但它并不是單純的扁平化,而是增加了適當的點綴以增強可用性,這是扁平化設計所不及的。Material Design的根本是可用性,而不是拿掉一切以提升視覺吸引力。
Web推送通知是來自網站的消息,即使當前瀏覽器沒有打開相關頁面也會出現。
Web推送通知是一種全新的營銷渠道,可用于在沒有用戶電子郵件或其他聯系方式的情況下,與網站訪問者重新建立聯系。
2015年,谷歌創造了漸進式Web應用程序(Progressive Web Apps, PWA)。
PWA是指可以在任意瀏覽器上執行的支持互聯網的應用程序,它是由服務器端腳本(PHP和ASP)和客戶端腳本(JavaScript和HTML)組成。應用最廣泛的例子就是在線電子表格(Google Docs)、電子郵件(Gmail)、照片和視頻編輯(Pixlr.com)等,這些程序允許用戶同時訪問相同版本的文檔。
有無服務人員是PWA和常規Web應用程序的主要區別,服務人員是PWA背后強大的技術支撐,在服務人員的幫助下,可實現離線模式工作、接收推送消息、更新背景內容等。PWA旨在實現多個平臺通用的應用程序。
簡單易安裝也是Web應用程序與原生應用程序相比的一大優點。此外,開發人員不需要將PWA適配到iOS或Android平臺上,由于使用網絡技術,PWA可跨平臺工作。
以會話為導向的營銷和銷售平臺,將企業與客戶實時聯系起來。這使得我們可以進一步開展創意營銷,開拓全新的營銷方式,以更好地達到預期目標。
本文作者是從國外Web設計角度出發,和國內的視角還是有一些區別,但其中的很多概念還是可以借鑒的。漸變色、響應式設計、動效都是最近幾年的熱門詞,其中的漸進式Web應用程序是我第一次了解這個概念,相信未來國內的開發人員會在此方面有所建樹。
原文標題:《Web design in 2018》
原文鏈接:https://www.behance.net/gallery/60586377/Web-Design-Trends-2018
本文由 @UImax 翻譯發布于人人都是產品經理。未經許可,禁止轉載
題圖來自Unsplash,基于CC0協議
對海量的文獻信息我們往往會感覺無從下手,更不用提閱讀外文文獻了。但是閱讀外文文獻對于把握最新科研動態,擴充自己的知識是非常有必要的,下面給大家分享一些閱讀外文文獻的經驗。不一定完全正確,僅作參考。
如何有針對性地查找文獻
現在各大學圖書館里的數據庫都比較全,即使不全也可以通過網絡上多種手段獲取文獻了。所以說文獻的獲取不是問題,問題在于查什么樣的文獻?
①本領域核心期刊的文獻。不同的研究方向有不同的核心期刊,這里也不能一概唯IF論了。當然,首先你要了解所研究領域的核心期刊有哪些,這個就要靠學長、老板或者網上戰友的互相幫助了。
②本領域牛人或主要課題組的文獻。每個領域內都有幾個領軍人物,他們所從事的方向往往代表目前的發展主流。因此,閱讀這些組里的文獻就可以把握目前的研究重點。怎么知道誰是“領軍人物”呢?這里提供兩個小方法:第一,在ISI里檢索本領域的文獻,利用refine功能找出論文數量較多的作者或課題組;另一個方法,先要了解本領域有哪些規模較大的國際會議,登陸會議主辦方的網站一般都能看到關于會議的invited speaker的名字,作為邀請報告的報告人一般就是了。
③高引用次數的文章。一般來說高引用次數(如果不是靠自引堆上去的話)文章都是比較經典的文章。多讀這樣的文章,體會作者對文章結構的把握和圖表分析的處理,相信可以從中領悟很多東西。
知道了查什么樣的文獻后,那么具體怎么去查文獻?
通過關鍵詞、主題詞檢索:關鍵詞、主題詞一定要選好,這樣,才能保證你所要的內容的全面。因為,換個主題詞,可以有新的內容出現。
通過檢索某個學者:查SCI,知道了某個在這個領域有建樹的學者,找他近期發表的文章。
通過參考綜述檢索:如果有與自己課題相關或有切入點的綜述,可以根據相應的參考文獻找到那些原始的研究論文。
注意文章的參考價值:刊物的影響因子、文章的被引次數能反映文章的參考價值。但要注意引用這篇文章的其它文章是如何評價這篇文章的。
如何對下載的文獻進行分類整理
關于文獻的整理,很多時候大家下文獻都是很盲目的,抱著一種先下載下來再說的心態。往往下載的文獻不少,但只是空占著磁盤空間。不經過整理歸類的文獻就不是自己的文獻,那根據什么來分類呢?
對于擁有大量未讀文獻的這里有個簡單方法,只關心三點:
①文章前言的最后一部分(一般這部分給出作者為什么要進行這項工作,依據和方法)
②文章的圖表(提出采用的表征方法)
③結論(是否實現了既定目標以及是否需要改進)
當然,對所有的未讀文獻全部精讀相信工作量也不小,盡可能用50字左右來歸納文章(包括文章的目的+表征手段+主要結論)。當你按照這個方法歸納整理幾十篇文獻后,自然會有一個大致的了解,而后再根據你的筆記將文獻分類整理,當你在寫論文需要解釋引用時再回頭精讀,我覺得這樣會提高效率不少。
在歸類時,重要文獻可以根據重要程度在文件名前加001,002,003編號,然后按名稱排列圖標,最重要的文獻就排在最前了,而且重要文獻要注意追蹤。
當然分類的標準還有其他,例如根據中文/英文、綜述/研究論文等。
如何閱讀科技文獻
① 明確文獻的閱讀目的
讀文獻有不同的讀法,但最重要的是自己總結概括這篇文獻到底說了什么,否則就是白讀。文獻整理分類的時候實際就已經概括了各文獻。下面介紹的是幾種不同目的的文獻讀法?
讀文獻有不同的讀法,但最重要的是自己總結概括這篇文獻到底說了什么,否則就是白讀。文獻整理分類的時候實際就已經概括了各文獻。下面介紹的是幾種不同目的的文獻讀法?
目的1. 回顧重要內容的讀法——take home message
每次讀完文獻(不管是精讀還是泛讀),合上文獻后,想想看,文章最重要的take-home message是什么,如果不知道,就從abstract,conclusion里找,并且最好從discuss里確認一下。這樣一來,一篇文章就過關了。Take home message其實都不會很多,基本上是一些concepts,如果你發現你需要記得很多,那往往是沒有抓到重點。
目的2.擴充知識面的讀法——introduction
重點讀introduction,看人家提出的問題,以及目前的進展。類似的文章(Reference中),每天讀一兩篇,一個月內就基本上對這個領域的某個方向有個大概的了解。當然,讀好的review也行,但這樣容易使人變得懶惰。
目的3.寫文章的讀法——discussion
讀文章的時候,尤其是看discussion的時候,覺到好的英文句型,最好有意識的記一下,看一下作者是誰,哪篇文章,哪個期刊,這樣以后“照貓畫虎”寫的時候,效率高些。比自己在那里半天琢磨出一個句子強的多。當然,讀的多,寫得多,你需要記的句型就越少。其實很簡單,有意識的去總結和記億,就不容易忘記。
② 根據文獻的類型來確定閱讀順序
對于一個以前沒有接觸的陌生領域看文獻的方式是先看中文綜述,然后是中文博士論文,而后是英文綜述,最后是英文期刊文獻。
先讀綜述,可以更好地認識課題,知道已經做出什么,還有什么問題沒有解決,自己要做什么。對于國內文獻一般批評的聲音很多。但它是你迅速了解你的研究領域的入口,在此之后,你再看外文文獻會比一開始直接看外文文獻理解得快得多。而國外的綜述多為本學科的資深人士撰寫,涉及范圍廣,可以讓人事半功倍。通過中文綜述,你可以首先了解這行的基本名詞,基本參量和常用的制備、表征方法。我覺得這點很重要,因為如果直接英文上手的話,一些基本名詞如果簡單的想當然的翻譯,往往會將你引入誤區或造成歧義。同時中文綜述里要包含了大量的英文參考文獻,這就為后續的查找文獻打下一個基礎。
中文博士論文,特別是最近幾年的,其第一章前言或是緒論所包含的信息量往往大于一篇綜述的。因為它會更加詳細地介紹該領域的背景以及相關理論知識,同時里面往往會提到國內外在本領域做得比較好的幾個科研小組的相關研究方向。通過閱讀就可以更清楚理清一個脈絡。
英文綜述,特別是那種invited paper或是發表在高IF期刊上的,往往都是本領域的大家寫的。對此要精讀,要分析其文章的構架,特別要關注作者對各個方向的優缺點的評價以及對缺點的改進和展望。通過精讀一篇好的英文綜述,所獲得的不只是對本領域現在發展狀況的了解,同時也可以學會很多地道的英文表達。
③ 閱讀文獻中各個部分
注重摘要:摘要可以說是一個論文的窗口。多數文章看摘要,少數文章看全文。真正有用的全文并不多,過分追求全文是浪費,不可走極端。當然只看摘要也是不對的。多數文章題目、摘要簡單瀏覽后,直接把幾個Figure及Title與legend一看,一般能掌握大部分。
通讀全文:讀第一遍的時候一定要認真,爭取明白每句的大意,能不查字典最好先不查字典。因為讀論文的目的并不是學英語,而是獲取信息,查了字典以后思維會變得混亂,往往讀完全文不知所謂。可以在讀的過程中將生字標記,待通讀全文后再查找其意思。
歸納總結:較長的文章,容易遺忘。好在雖然論文的句子都長,但每段的句數并不多,可以每一段用一個詞組標一個標題。
確立句子的架構,抓住主題:讀英文原版文獻有竅門的。我們每個單詞都認識讀完了卻不知他在說什么,這是最大的問題。在閱讀的時候一定要看到大量的關系連詞,他們承上啟下引領了全文。讀每一段落都要找到他的主題,往往是很容易的,大量的無用信息可以一帶而過,節約你大量的寶貴時間和精力。
增加閱讀量:由于剛剛接觸這一領域,對許多問題還沒有什么概念,讀起來十分吃力,許多內容也讀不懂。后來隨著閱讀量的增加,最后可以融會貫通。所以,對新手而言,應當重視閱讀文獻的數量,積累多了,自然就由量變發展為質變了。
④ 文獻閱讀的一些建議
先找5篇跟自己論文最相關的外文文章看。花一個月的時間認認真真地看,反復看,要求全部讀懂,不懂的地方可以和同學和老師交流一下。從中理解文章中回答什么問題,通過哪些技術手段來證明,有哪些結論? 從這些文章中,了解研究思路,邏輯推論,學習技術方法。一個月以后你已經上路了。
把下載的論文打印出來。把論文根據與自己課題的相關性分三類:一類要精讀,二類要泛讀,三類要選擇性的讀,分別裝訂在一起。
看過的文獻要溫習。看完的文獻千萬不要丟在一邊不管,3-4個月一定要溫習一遍,可以根據需要,對比自己的試驗結果來看。
做好筆記和標記。重要的結論,經典的句子,精巧的試驗方案一定要記下來,供參考和學習。復印或打印的文獻,直接用筆標記或批注。pdf 或html格式的文獻,可以用編輯器標亮或改變文字顏色。這是避免時間浪費的又一重要手段,否則等于沒看。
有些試驗方法相同、結論不同的文獻,可以批判性的閱讀。我想如果是你自己做試驗多的話,你應該有這個能力判斷誰的更對一點。出現試驗方法相同,結論不同的原因有下:試驗方法描述不詳細,可能方法有差別;試驗條件不一樣;某些作者夸大結果,瞎編數據。
集中時間看文獻。看文獻的時間越分散,浪費時間越多。集中時間看更容易聯系起來,形成整體印象。
如何提高英語科研的寫作能力
英文文章的寫作是文獻閱讀的副產品,平時閱讀文獻,注意總結常用句型和常用短語(注意,文獻作者最好是以英語為母語者,文獻內容要與你的專業有關),然后找3-5篇技術路線和統計方法與你的課題接近的文章,精讀。
① 要寫好科研論文,必須先養成閱讀英文文章的習慣,爭取每天30~60分鐘。剛開始可以選擇以讀英文報紙、英文新聞為主,逐漸轉為讀專業雜志。
② 寫科研論文,最重要的是邏輯。邏輯的形成來自于對實驗數據的總體分析。必須先討論出一套清晰的思路,然后按照思路來做圖表(Figures),最后才執筆。
③ 具體寫作時,先按照思路(即Figures)寫一個以subheading(小標題)為主的框架,然后開始具體寫作。第一稿,切忌追求每一句話的完美,更不要追求詞語的華麗,而主要留心邏輯(logic flow),注意前后句的邏輯關系、相鄰兩段的邏輯關系。寫作時,全力以赴,盡可能不受外界事情干擾(關閉手機、座機),爭取在最短時間內拿出第一稿。還要注意:一句話不可太長。
④ 學會照葫蘆畫瓢。沒有人天生會寫優秀的科研論文,都是從別人那里學來的。學習別人的文章要注意專業領域的不同,有些領域有它內在的寫作規律。在向別人學習時,切忌抄襲。在美國一些機構,連續7個英文單詞在一起和別人的完全一樣,原則上就被認為抄襲(plagiarism)。
⑤ 第一稿寫完后,給自己不要超過一天的休息時間,開始修改第二稿。修改時,還是以邏輯為主,但對每一句話都要推敲一下,對abstract和正文中的關鍵語句要字斟句酌。科研文章里的一些話是定式,比如“To investigate the mechanism of……,we performed……”(為了探索……的機制,我們做了……),“These results support the former,but not the latter,hypothesis……”(這些結果支持了前面的觀點,而不是后面的,假設……),“Despite recent progress,how……remains to be elucidated……”(盡管最近的進展,如何闡明……)等等。用兩次以后,就逐漸學會靈活運用了。學會用“Thesaurus”(同義詞替換)以避免過多重復。第二稿的修改極為關鍵,再往后就不會大改了。
⑥ 第二稿以后的修改,主要注重具體的字句,不會改變整體邏輯了。投稿前,一定要整體讀一遍,對個別詞句略作改動。記住:學術期刊一般不會因為具體的語法錯誤而拒絕一篇文章,但一定會因為邏輯混亂而拒絕一篇文章。
發表論文是一件值得高興的事情,但要明白:論文只是一個載體,是為了向同行們宣告你的科研發現,是科學領域交流的重要工具。所以,在科研論文寫作時,一定要謹記于心的就是:用最簡單的話表達最明白的意思,但一定要邏輯嚴謹!其實,中文和英文論文皆如此!
*請認真填寫需求信息,我們會在24小時內與您取得聯系。