Warning: error_log(/data/www/wwwroot/hmttv.cn/caches/error_log.php): failed to open stream: Permission denied in /data/www/wwwroot/hmttv.cn/phpcms/libs/functions/global.func.php on line 537 Warning: error_log(/data/www/wwwroot/hmttv.cn/caches/error_log.php): failed to open stream: Permission denied in /data/www/wwwroot/hmttv.cn/phpcms/libs/functions/global.func.php on line 537
信的規(guī)則進(jìn)行了調(diào)整
希望大家看完故事多點(diǎn)“在看”,喜歡的話也點(diǎn)個(gè)分享和贊
這樣事兒君的推送才能繼續(xù)出現(xiàn)在你的訂閱列表里
才能繼續(xù)跟大家分享每個(gè)開(kāi)懷大笑或拍案驚奇的好故事啦~
說(shuō)到Gucci,我們總會(huì)聯(lián)想到成功,奢華,光鮮亮麗。
但跟品牌帶給我們的感覺(jué)不同,創(chuàng)造這個(gè)品牌的Gucci家族的歷史中,卻充滿了各種撕逼和黑暗。
之前,作家Sara Gay Forden就針對(duì)他們家族寫(xiě)過(guò)一本書(shū):《The House of Gucci》,下面一行小字標(biāo)注了這本書(shū)的主要內(nèi)容:一個(gè)關(guān)于謀殺,瘋狂,魅力,貪婪的故事。
逃稅,通奸,父子結(jié)仇,股權(quán)爭(zhēng)奪,買(mǎi)兇殺人,兒子把81歲的父親送進(jìn)大牢…
劇情簡(jiǎn)直比電視劇還夸張。
雖然Gucci家族第三代掌門(mén)人把股份全部出售后,現(xiàn)在Gucci品牌已經(jīng)屬于法國(guó)開(kāi)云集團(tuán),跟Gucci家族沒(méi)啥關(guān)系了。
但因?yàn)檫@個(gè)全球知名的姓氏,他們家族的事,還是會(huì)受到全球關(guān)注。
最近,Gucci創(chuàng)始人的外曾孫女又把自己的繼父,親媽?zhuān)H外婆告上了法庭——
她控訴從自己6歲開(kāi)始,繼父便開(kāi)始猥褻自己,親媽和外婆都知道很多年了,不但不幫她,還威脅她不要說(shuō)出去。
她叫Alexandra Zarini,今年35歲,是Gucci創(chuàng)始人Guccio Gucci的外曾孫女,外公是Gucci第二代掌門(mén)人Aldo Gucci。
9月9日,Alexandra在自己的兒童基金會(huì)網(wǎng)站上發(fā)布一則視頻,公開(kāi)了小時(shí)候噩夢(mèng)般的遭遇。
Alexandra的媽媽Patricia Gucci結(jié)過(guò)兩次婚,Alexandra來(lái)自她第一段婚姻。
第一次婚姻失敗后,Patricia認(rèn)識(shí)了美國(guó)音樂(lè)人Joseph Ruffalo,兩人相戀后沒(méi)多久,Patricia便帶著女兒搬到了加州跟他一起生活。
(Alexandra的媽媽和繼父)
對(duì)媽媽來(lái)說(shuō),她也許以為找到了人生第二春,
但對(duì)Alexandra來(lái)說(shuō),一個(gè)惡魔正在向她靠近。
她說(shuō)自己有時(shí)候晚上做噩夢(mèng),太害怕,就爬上媽媽的床跟她一起睡,但等她醒來(lái),她會(huì)發(fā)現(xiàn)繼父光著身體躺在旁邊,她的小手正放在繼父的隱私部位上。
當(dāng)Alexandra慢慢長(zhǎng)大后,繼父惡心的行為也逐漸升級(jí)。
他會(huì)經(jīng)常爬上她的床,摸她的私處,在她面前露出他的XX,用他的XX摩擦她的身體。
Alexandra表示,繼父會(huì)在她面前脫掉浴袍,一絲不掛的爬上她的床,把手伸進(jìn)她衣服里面摸她的胸部。還試圖用手指性侵她。
她因?yàn)榭謶郑矶紩?huì)僵硬。
等Alexandra到了青春期,繼父的性騷擾也沒(méi)有停下來(lái)。
中間Alexandra曾去英國(guó)讀寄宿學(xué)校,后來(lái),又在媽媽的要求下返回加州,繼續(xù)回到繼父的魔爪之下,繼父繼續(xù)性侵她,還“鼓勵(lì)”她使用毒品。
從6歲開(kāi)始,繼父對(duì)她的新侵一直持續(xù)到她22歲。
而這一切,Alexandra說(shuō),她母親和外婆都是知道的。
在她16歲時(shí),她外婆曾問(wèn)她,繼父是不是有猥褻她。
Alexandra回答:“是的”,
而外婆的反應(yīng)是讓Alexandra不要跟任何人說(shuō),一定要死死守住這個(gè)秘密。
她的母親也默許繼父的獸性,并且允許他偷拍女兒洗澡的畫(huà)面。
Alexandra還說(shuō),媽媽有時(shí)候會(huì)打她,甚至試圖掐死她,這時(shí)候,繼父就會(huì)以一個(gè)“保護(hù)者”的形象出現(xiàn),把她“救下來(lái)”,然后趁機(jī)亂摸她。
Alexandra 20多歲的時(shí)候,曾第一次跟媽媽提到要公開(kāi)自己被性侵的事情。
當(dāng)時(shí)媽媽用了最嚴(yán)厲的話來(lái)制止她。
“這是丑聞,會(huì)給家族蒙羞。”
“你會(huì)上法庭,被拷問(wèn),你不能找到好工作,你一輩子都會(huì)被釘在恥辱柱上。”
“這件事會(huì)玷污我們的名聲。”
”而且,你還有毒癮,沒(méi)有人會(huì)相信你。“
被繼父性侵成了Alexandra心里最深的秘密,她很痛苦,卻無(wú)法找到發(fā)泄口。
她不知道該怎么辦,為了不再一遍一遍想起那些惡心的經(jīng)歷,Alexandra甚至一度誤入歧途,開(kāi)始借助毒品來(lái)麻痹自己。
幸好,她最后還是清醒了。
進(jìn)入戒毒中心戒毒,一步步脫離家族實(shí)現(xiàn)財(cái)務(wù)獨(dú)立,并且找到了三觀一致的丈夫。
4年前,她生下了她的第一個(gè)孩子。
當(dāng)了媽媽后,Alexandra對(duì)兒童被性侵的問(wèn)題更加敏感。
后來(lái),她聽(tīng)說(shuō),繼父在洛杉磯一家兒童醫(yī)院當(dāng)志愿者。
這讓她頓時(shí)汗毛倒立,她怕繼父對(duì)其他孩子下手,于是決定不再隱藏,站出來(lái)揭發(fā)他!
他向加州比佛利山莊警察局報(bào)警,正式發(fā)起對(duì)繼父,親媽?zhuān)约巴馄诺闹缚亍?/p>
她說(shuō),就在她下決心要公開(kāi)指控他們前,她媽和她外婆還在威脅她。
她們說(shuō),如果她真的那么做,就把她逐出Gucci家族,不再認(rèn)她,遺產(chǎn)繼承也沒(méi)有她的份,家里的人,沒(méi)有人會(huì)再回跟她說(shuō)話。
但Alexandra表示,她都不在意了。
她不在乎錢(qián),也不在乎名,她只想要阻止這一切,不想這種事再發(fā)生在其他孩子身上。
她感覺(jué)自己有責(zé)任站出來(lái),讓那些傷害兒童的人得到應(yīng)有的懲罰。
目前,警方的調(diào)查還在進(jìn)行中。
針對(duì)Alexandra的指控,媒體也去聯(lián)系了她媽和她繼父。
她媽Patricia Gucci說(shuō),
“對(duì)于Joseph Ruffalo 給Alexandra造成的傷痛,我感覺(jué)極其難過(guò)。
他的行為沒(méi)有任何借口,當(dāng)女兒2007年在我們家庭醫(yī)生面前跟我說(shuō)了這一切后,我也非常震驚痛苦。
我得知后,立馬跟Joseph Ruffalo開(kāi)始辦離婚手續(xù)。然后和我的家人一起通過(guò)心理咨詢來(lái)療傷。
對(duì)于Alexandra針對(duì)我和她外婆的指控,我也非常震驚,這完全都是假的。”
Alexandra的繼父通過(guò)律師回應(yīng)說(shuō),他目前沒(méi)有在任何兒童醫(yī)院當(dāng)志愿者,Alexandra對(duì)她的性侵指控,他也堅(jiān)決否認(rèn)。
他還說(shuō),當(dāng)初他和Alexandra母親結(jié)婚后,就很擔(dān)心Alexandra的精神健康,還曾試圖用各種方法來(lái)緩解她情緒不穩(wěn)定的問(wèn)題。
“但很明顯,這些努力都失敗了。”
雖然目前調(diào)查結(jié)果還沒(méi)出來(lái),不過(guò),看了各方的說(shuō)法,網(wǎng)友們大多都站在Alexandra這邊:
“可憐的女人,我完全相信她。她的話很可信。”
“這個(gè)女人太棒了。她沒(méi)有藏起來(lái),當(dāng)個(gè)受害者,相反,她選擇拿出自己的傷痛來(lái)幫助別人。她本不需要做這些,但她知道,只有把謊言,惡行,威脅暴露在陽(yáng)光下才能殺死它們。我為她祈禱,希望她內(nèi)心能愈合,也為她的勇氣鼓掌。”
“想象一下,一個(gè)小女孩,被一個(gè)魔鬼傷害,而她知道,自己的家人一直在允許這種傷害發(fā)生,她該有多么無(wú)助… 把他們統(tǒng)統(tǒng)曝光。這是無(wú)法接受的,他們才是恥辱。這種事不能再發(fā)生了。”
“我完全相信這個(gè)女孩,她媽和她外婆真夠可恥的。這是跟發(fā)生在我媽身上的事非常相似,區(qū)別只是,性侵她的,是她的親生父親。當(dāng)我媽終于有勇氣向我外婆的姐姐說(shuō)出這一切后,她把這事告訴了我外婆,我外婆罵我媽’蕩婦’。我是幾年后才知道這事的,我也終于知道為什么我媽成了他們家的’不孝子’。我完全相信我媽?zhuān)龐尯退忠粯訅模 ?/p>
https://www.dailymail.co.uk/news/article-8717611/Gucci-heiress-claims-family-covered-decades-sexual-abuse.html#comments
https://www.nytimes.com/2020/09/09/style/gucci-family-lawsuit.html?smtyp=cur&smid=tw-nytimesbusiness
--------------------
流月城大祭司沈不悔:名利使人六親不認(rèn),誒
weiweiyy-:自己的家人一直允許這種傷害發(fā)生 這女主該多無(wú)助和絕望。
游嬤嬤Umm:Gucci家族真的很
尼桑頂呱呱:歷史一次又一次地告訴人們,父母不一定會(huì)站在孩子那一邊
明月星寂
:天吶富貴人家也是逃不過(guò)
生產(chǎn)隊(duì)長(zhǎng)牛翠芳:這一家人都是魔鬼吧
讀:聽(tīng)說(shuō)你寫(xiě)Python代碼沒(méi)動(dòng)力?本文就給你動(dòng)力,爬取妹子圖。如果這也沒(méi)動(dòng)力那就沒(méi)救了。
GitHub 地址: https://github.com/injetlee/Python/blob/master/%E7%88%AC%E8%99%AB%E9%9B%86%E5%90%88/meizitu.py
當(dāng)你運(yùn)行代碼后,文件夾就會(huì)越來(lái)越多,如果爬完的話會(huì)有2000多個(gè)文件夾,20000多張圖片。不過(guò)會(huì)很耗時(shí)間,可以在最后的代碼設(shè)置爬取頁(yè)碼范圍。
我們從 http://meizitu.com/a/more_1.html 這個(gè)鏈接進(jìn)去,界面如下圖所示:
可以看到是一組一組的套圖,點(diǎn)擊任何一組圖片會(huì)進(jìn)入到詳情界面,如下圖所示:
可以看到圖片是依次排開(kāi)的,一般會(huì)有十張左右的圖片
看了界面的結(jié)構(gòu),那么我們的思路就有了。
1. 下載界面的函數(shù),利用 Requests 很方便實(shí)現(xiàn)
def download_page(url): ''' 用于下載頁(yè)面 ''' headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} r = requests.get(url, headers=headers) r.encoding = 'gb2312' return r.text
2. 獲取圖一所示的所有套圖列表,函數(shù)中 link 表示套圖的鏈接,text表示套圖的名字。
def get_pic_list(html): ''' 獲取每個(gè)頁(yè)面的套圖列表,之后循環(huán)調(diào)用get_pic函數(shù)獲取圖片 ''' soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find_all('li', class_='wp-item') for i in pic_list: a_tag = i.find('h3', class_='tit').find('a') link = a_tag.get('href') # 套圖鏈接 text = a_tag.get_text() # 套圖名字 get_pic(link, text)
3. 傳入上一步中獲取到的套圖鏈接及套圖名字,獲取每組套圖里面的圖片,并保存,我在代碼中注釋了。
def get_pic(link, text): ''' 獲取當(dāng)前頁(yè)面的圖片,并保存 ''' html = download_page(link) # 下載界面 soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有圖片 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} create_dir('pic/{}'.format(text)) for i in pic_list: pic_link = i.get('src') # 拿到圖片的具體 url r = requests.get(pic_link, headers=headers) # 下載圖片,之后保存到文件 with open('pic/{}/{}'.format(text, link.split('/')[-1]), 'wb') as f: f.write(r.content) time.sleep(1)
完整代碼如下,包括了創(chuàng)建文件夾,利用多線程爬取,我設(shè)置的是5個(gè)線程,可以根據(jù)自己機(jī)器自己來(lái)設(shè)置一下。
import requests import os import time import threading from bs4 import BeautifulSoup def download_page(url): ''' 用于下載頁(yè)面 ''' headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} r = requests.get(url, headers=headers) r.encoding = 'gb2312' return r.text def get_pic_list(html): ''' 獲取每個(gè)頁(yè)面的套圖列表,之后循環(huán)調(diào)用get_pic函數(shù)獲取圖片 ''' soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find_all('li', class_='wp-item') for i in pic_list: a_tag = i.find('h3', class_='tit').find('a') link = a_tag.get('href') text = a_tag.get_text() get_pic(link, text) def get_pic(link, text): ''' 獲取當(dāng)前頁(yè)面的圖片,并保存 ''' html = download_page(link) # 下載界面 soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有圖片 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} create_dir('pic/{}'.format(text)) for i in pic_list: pic_link = i.get('src') # 拿到圖片的具體 url r = requests.get(pic_link, headers=headers) # 下載圖片,之后保存到文件 with open('pic/{}/{}'.format(text, link.split('/')[-1]), 'wb') as f: f.write(r.content) time.sleep(1) # 休息一下,不要給網(wǎng)站太大壓力,避免被封 def create_dir(name): if not os.path.exists(name): os.makedirs(name) def execute(url): page_html = download_page(url) get_pic_list(page_html) def main(): create_dir('pic') queue = [i for i in range(1, 72)] # 構(gòu)造 url 鏈接 頁(yè)碼。 threads = [] while len(queue) > 0: for thread in threads: if not thread.is_alive(): threads.remove(thread) while len(threads) < 5 and len(queue) > 0: # 最大線程數(shù)設(shè)置為 5 cur_page = queue.pop(0) url = 'http://meizitu.com/a/more_{}.html'.format(cur_page) thread = threading.Thread(target=execute, args=(url,)) thread.setDaemon(True) thread.start() print('{}正在下載{}頁(yè)'.format(threading.current_thread().name, cur_page)) threads.append(thread) if __name__ == '__main__': main()
好了,之后運(yùn)行,我們的爬蟲(chóng)就會(huì)孜孜不倦的為我們下載漂亮妹子啦。
說(shuō)你寫(xiě)代碼沒(méi)動(dòng)力?本文就給你動(dòng)力,爬取妹子圖。如果這也沒(méi)動(dòng)力那就沒(méi)救了。
GitHub 地址: https://github.com/injetlee/Python/blob/master/%E7%88%AC%E8%99%AB%E9%9B%86%E5%90%88/meizitu.py
爬蟲(chóng)成果
當(dāng)你運(yùn)行代碼后,文件夾就會(huì)越來(lái)越多,如果爬完的話會(huì)有2000多個(gè)文件夾,20000多張圖片。不過(guò)會(huì)很耗時(shí)間,可以在最后的代碼設(shè)置爬取頁(yè)碼范圍。
本文目標(biāo)
網(wǎng)站結(jié)構(gòu)
我們從 http://meizitu.com/a/more_1.html 這個(gè)鏈接進(jìn)去,界面如圖一所示
圖一:
可以看到是一組一組的套圖,點(diǎn)擊任何一組圖片會(huì)進(jìn)入到詳情界面,如圖二所示
圖二:
可以看到圖片是依次排開(kāi)的,一般會(huì)有十張左右的圖片。
實(shí)現(xiàn)思路
看了界面的結(jié)構(gòu),那么我們的思路就有了。
代碼說(shuō)明
def download_page(url): ''' 用于下載頁(yè)面 ''' headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} r = requests.get(url, headers=headers) r.encoding = 'gb2312' return r.text
def get_pic_list(html):
'''
獲取每個(gè)頁(yè)面的套圖列表,之后循環(huán)調(diào)用get_pic函數(shù)獲取圖片
'''
soup = BeautifulSoup(html, 'html.parser')
pic_list = soup.find_all('li', class_='wp-item')
for i in pic_list:
a_tag = i.find('h3', class_='tit').find('a')
link = a_tag.get('href') # 套圖鏈接
text = a_tag.get_text() # 套圖名字
get_pic(link, text)
def get_pic(link, text): ''' 獲取當(dāng)前頁(yè)面的圖片,并保存 ''' html = download_page(link) # 下載界面 soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有圖片 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} create_dir('pic/{}'.format(text)) for i in pic_list: pic_link = i.get('src') # 拿到圖片的具體 url r = requests.get(pic_link, headers=headers) # 下載圖片,之后保存到文件 with open('pic/{}/{}'.format(text, pic_link.split('/')[-1]), 'wb') as f: f.write(r.content) time.sleep(1)
完整代碼
完整代碼如下,包括了創(chuàng)建文件夾,利用多線程爬取,我設(shè)置的是5個(gè)線程,可以根據(jù)自己機(jī)器自己來(lái)設(shè)置一下。
import requests import os import time import threading from bs4 import BeautifulSoup def download_page(url): ''' 用于下載頁(yè)面 ''' headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} r = requests.get(url, headers=headers) r.encoding = 'gb2312' return r.text def get_pic_list(html): ''' 獲取每個(gè)頁(yè)面的套圖列表,之后循環(huán)調(diào)用get_pic函數(shù)獲取圖片 ''' soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find_all('li', class_='wp-item') for i in pic_list: a_tag = i.find('h3', class_='tit').find('a') link = a_tag.get('href') text = a_tag.get_text() get_pic(link, text) def get_pic(link, text): ''' 獲取當(dāng)前頁(yè)面的圖片,并保存 ''' html = download_page(link) # 下載界面 soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有圖片 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} create_dir('pic/{}'.format(text)) for i in pic_list: pic_link = i.get('src') # 拿到圖片的具體 url r = requests.get(pic_link, headers=headers) # 下載圖片,之后保存到文件 with open('pic/{}/{}'.format(text, pic_link.split('/')[-1]), 'wb') as f: f.write(r.content) time.sleep(1) # 休息一下,不要給網(wǎng)站太大壓力,避免被封 def create_dir(name): if not os.path.exists(name): os.makedirs(name) def execute(url): page_html = download_page(url) get_pic_list(page_html) def main(): create_dir('pic') queue = [i for i in range(1, 72)] # 構(gòu)造 url 鏈接 頁(yè)碼。 threads = [] while len(queue) > 0: for thread in threads: if not thread.is_alive(): threads.remove(thread) while len(threads) < 5 and len(queue) > 0: # 最大線程數(shù)設(shè)置為 5 cur_page = queue.pop(0) url = 'http://meizitu.com/a/more_{}.html'.format(cur_page) thread = threading.Thread(target=execute, args=(url,)) thread.setDaemon(True) thread.start() print('{}正在下載{}頁(yè)'.format(threading.current_thread().name, cur_page)) threads.append(thread) if __name__ == '__main__': main()
好了,之后運(yùn)行,我們的爬蟲(chóng)就會(huì)孜孜不倦的為我們下載漂亮妹子啦。
*請(qǐng)認(rèn)真填寫(xiě)需求信息,我們會(huì)在24小時(shí)內(nèi)與您取得聯(lián)系。