輿情管理篇_第十六章 加強網絡違法和不良信息管理

第十六章 加強網絡違法和不良信息管理

第一節 國外的做法

由於世界各國的法律和具體國情不盡相同,社會風俗和生活習慣有所差異,因此對於互聯網不良信息的理解和範圍的界定也有所區別。但其認知的共同點在於,這些不良信息的傳播對互聯網安全、社會運行秩序以及大多數網民的利益構成了嚴重的威脅。因此,世界各國都製定了相關法律法規並采取管製措施,在一定程度上遏止了網絡不良信息的傳播所帶來的社會負麵影響。

目前來看,各國對互聯網信息的監管主要可分為“政府主導模式”與“政府指導模式”。“政府主導模式”強調政府在互聯網信息監管中的主導作用,多通過政府立法和網絡過濾等技術手段進行監管;“政府指導模式”強調互聯網行業協會的自律,政府在進行相關立法的基礎上,主要強調建立網絡分級製並協助形成從業者的自律規範。在世界各國中,韓國、德國、新加坡等國采用的是“政府主導模式”,美國、日本、英國等國采用的是“政府指導模式”。

應該看到的是,無論“政府主導模式”還是“政府指導模式”,政府都在互聯網信息監管方麵發揮著非常重要的作用。從各國的監管實踐來看,當互聯網信息的發布與傳播危害到國家安全、社會秩序及公共利益時,政府都會運用法律、技術等多種手段進行管理。

一、韓國:互聯網管理兼顧立法與培養網民自律意識

(一)政府對互聯網內容的管製

1.政府對互聯網內容主要通過立法進行管製

韓國建立了世界上最早的互聯網審查專門機構。韓國早在1995年就由國會通過了《電子通信商務法》,將“危險通信信息”作為管製對象,並將管製權力賦予信息通信部(MIC),委托信息通信道德委員會(ICEC)行使管理權限。ICEC擁有廣泛的審查權力,其審查範圍包括BBS、聊天室以及其他“侵害公眾道德的公共領域”、“可能喪失國家主權”以及“可能傷害年輕人感情、價值判斷能力等的有害信息”。

韓國政府互聯網管製原則是以法規為先導,加強互聯網內容的管製。韓國信息通信技術的快速發展使互聯網內容的管製成為現實的難題,為了改變被動接受互聯網信息的狀況,韓國政府采取主動出擊的措施,通過確定“不當網站”列表以及安裝互聯網內容過濾軟件管理互聯網信息資源。韓國針對互聯網內容強調加強管製,通過立法來管理,以互聯網過濾來保障網絡空間的安全和健康。

1992年7月,韓國成立信息道德委員會,並於1995年1月改組為信息通信道德委員會,成為韓國互聯網內容管理的專門機構。在《電子商務通信法》的管理框架下,韓國ICEC還頒布了一些互聯網內容管製的專法,如2001年4月發布的《不當網絡站點鑒定標準》以及2001年7月公布的《互聯網內容過濾法令》,都在法律框架上確定了信息內容過濾的合法性。

除了互聯網管理領域的法律外,韓國其他一些法律也會涉及互聯網內容的管理,主要包括《未成年人保護法》、《年輕人發展法》以及相應的國家安全法律、反色情法律等。

韓國政府針對互聯網內容管理采用了普法和專法相結合的方法,既避免了普法對網絡管理權限分散,又利用了專法管理具有的針對性,形成了比較完善的互聯網管理體係。

2.韓國互聯網管製機構

韓國互聯網管製機構ICEC主要由兩個下屬委員會構成,即信息通信道德委員會與專家委員會,二者職責明晰。

信息通信道德委員會由14個獨立委員組成,主要職責是在涉及以下方麵的政策發布前進行評估:控製有害信息傳播的政策;促進更健康的網絡文化發展的政策。

專家委員會的職責包括完成事件的評估報告,針對未來可能出現的違法或有害信息的形式提出相關的鑒定標準等。

在實施互聯網內容管製的工作時,ICEC主要完成以下工作職能:引入信息通信的普遍道德規範;根據《電子通信商務法》和《總統指令》檢查和監督互聯網內容在電信網絡上的公開流通;提供淨化電信網絡上傳播信息的措施手段;負責“違法和有害信息報告中心(Internet 119)”的運營;促進健康網絡文化的發展;在信息通信部的委托下處理其他促進健康信息傳播的相關事宜。

除此之外,ICEC還積極與國外互聯網管製機構、企業緊密聯係,通過召開專家會議並簽署諒解備忘錄等形式參與互聯網管製的國際合作。

3.韓國互聯網內容管製措施

在互聯網內容管製的實際工作中,ICEC與MIC密切合作,以既定的分級和過濾標準來指導韓國的互聯網內容過濾。同時,ICEC認為網絡的開放性決定了網絡管理參與的開放性,並不僅僅將網絡管理的職責固化在本部門,而是強調全民參與,開通投訴熱線監督互聯網上不良信息的傳播。

(1)開通“Internet 119”熱線。“Internet 119”熱線作為有害網站信息報告的控製中心接受申請。評論小組根據熱線的報告,在發現違法和有害信息時執行糾正措施。

(2)認定“對未成年人有害”的通信媒介並監督其運營。在互聯網上提供的信息會被監控。任何有害信息將被保持監控,並根據情節判定是否對未成年人有害。

(3)開通互聯網內容排名服務。互聯網內容排名服務具備兩個獨特功能:首先,ICEC鼓勵互聯網用戶在韓國境內傳播內容時將其標定登記或排名。其次,韓國民眾可以使用根據ICEC標準劃分的排名數據庫,保護自己免受國外有害互聯網內容的侵害。ICEC強迫實施互聯網內容排名係統,規定站點應當包含以下內容:官方禁止接入站點列表;網頁設計者必須實施自我排名的體製;通過核對關鍵詞列表來限製站點接入。ICEC曾向韓國的網絡服務提供商(ISP)公布了12萬個有害站點的列表,要求通過防火牆來阻止接入。

(4)指導網絡空間權力的使用。ICEC建立了網絡空間誹謗和性暴力谘詢中心。根據其建立宗旨,網絡空間誹謗和性暴力谘詢中心具有雙重使命:歸檔投訴;幫助互聯網用戶理解怎樣利用網絡空間權力以及“安全”地使用互聯網。

(5)安裝過濾軟件。韓國信息和通信部根據《年輕人發展法令》限製色情或“令人反感”網站站點的接入。在年輕人經常使用互聯網的地點針對“有害信息”安裝過濾軟件。

(二)相關的管製政策

1.個人信息保護政策

韓國已開始著手製定《個人信息保護法》。韓國信息和通信部起草了《信息和通信網絡應用和信息保護促進法》修訂版。修訂版更關注用戶增強的個人信息保護意識,對現行法律進行改進。

韓國政府也在積極開展個人信息保護方麵的國際合作。2005年11月,亞太個人信息監督論壇成立,成員國及地區包括韓國、澳大利亞、新西蘭和中國香港。該論壇意在尋求個人信息保護方麵的區域合作。

韓國情報通信部目前正在積極推進有關利用信息通信網的法律修改工作,以加強對信息通信網的管理。按照該法案,韓國將製定一部《關於保護個人信息和確立健全的信息通信秩序》的法律。這一法律將明確規定個人信息管理者和使用者的權限和責任。與此同時,這一法律還將加強對**、暴力、犯罪等非法信息流通的管理。

2.反垃圾郵件

韓國在2007年2月采用移動垃圾信息跟蹤係統,自動過濾一些來源不明的郵件和短信。這種捕捉垃圾信息係統能夠更有效地阻止垃圾信息以及傳統廣告。

3.通過實名製培養網民自律意識

為了維護網絡健康和安全,保護公民的隱私權、名譽權和經濟權益,韓國政府從2002年起推動實施網絡實名製。迄今,韓國已通過立法、監督、管理和教育等措施,對網絡郵箱、網絡論壇、博客乃至網絡視頻實行實名製,成為全球貫徹實名製最徹底的國家之一。

2005年,韓國連續發生多起網絡事件,如網上傳播大批明星隱私的所謂“X檔案”、網民追查“狗屎女”致其精神失常以及網民借知名人士林秀卿之子溺死問題對林進行人身攻擊等。在召集專家學者和市民代表等各界人士進行充分討論後,韓國政府於2005年10月決定逐步推行網絡實名製,並發布和修改《促進信息化基本法》、《信息通信基本保護法》等法規,為網絡實名製提供法律依據,導入網絡監督、約束和處罰機製。此後,韓國政府不斷修改和製定各種有關網絡安全的法律。2007年7月起,《促進使用信息通信網絡及信息保護關聯法》規定,網民在網絡留言、建立和訪問博客時,必須先登記真實姓名和身份證號碼,通過認證方可使用,韓國各主要網站在網民留言之前,必須對留言者的身份證號碼等信息進行記錄和驗證,否則對網站處以最高金額達3萬美元的罰款。

此外,韓國信息通信部還用技術手段阻止網民從國外網站下載並轉載**視頻,並對上傳**視頻的個人和存在管理漏洞的網站運營商進行法律製裁。韓國警察廳則在網上開設“網絡警察廳”接受網絡違法事件的舉報。

韓國政府采取的這一係列措施,使得韓國網民在網絡留言時不得不考慮自身的責任,而網站也不能對實名製的實施敷衍了事。韓國信息通信部在推行網絡留言實名製後的調查中發現,一些主要網站論壇上謾罵和人身攻擊等不文明內容減少了一半以上,收效顯著。

2008年10月初,韓國發生“演員崔真實自殺事件”後,韓國政府積極著手修訂相關法律,並於當年執行《信息通信網法施行令修正案》,增加適用“限製性本人確認製”的網站。“限製性本人確認製”是指一項在門戶網站等進行網上留言時通過身份證確認本人的程序。

作為率先推行網絡實名製的國家之一,韓國在網絡管理上取得了成功。但主管這一事務的韓國信息通信部信息倫理部門負責人指出,韓國推行網絡實名製的真正目的並不在於管理,其最大意義在於樹立起網民的責任和自律意識,自律才是網絡管理的核心。

二、德國:注重“先發製人”預防互聯網信息違法行為

(一)相關立法

德國是歐洲信息技術最發達的國家,也是世界上第一個頒布網絡成文法的國家。

1997年8月,德國《信息和通訊服務規範法》(Information and Communication Services Act,即《多媒體法》)生效。該法涉及網絡服務提供者的責任、保護個人隱私、數字簽名、網絡犯罪和保護未成人等,是一部全麵的綜合性法律,對其他國家此後進行相關立法產生了相當大的影響。此法主要用來製止通過網絡傳播的違法內容,包括猥褻、色情、惡意言論、謠言、反猶太主義等宣揚種族主義的言論,更嚴格規範了有關納粹的言論、思想及圖片等相關信息。

2002年1月,德國政府通過了《電信服務數據保護法》。該法對公共機構和私人機構對數據的處理、數據主體的權利、個人數據主體使用數據的限製、聯邦數據保護機構、研究機構和媒體對個人數據的使用,以及有關的行政和刑事違法行為等事宜做出了詳細規定。該法還根據發展信息和通訊服務的需要,對《刑法》法典、《傳播危害青少年文字法》、《著作權法》和《報價法》做了必要的修改和補充。德國最高刑事法庭宣布,在互聯網上散播兒童色情內容同交換類似內容的印刷品沒有區別,都將麵臨最高達15年監禁的處罰。

(二)行政手段

1.在打擊網絡犯罪策略上,德國注重“先發製人”,注重預防。德國內政部調集專業人員和技術力量成立了“信息和通信技術服務中心”,為警方通過網絡展開調查和采取措施時提供技術支持。該中心還下設一個被形容為“網上巡警”的調查機構“ZARD”,具備特殊的調查權限。此外,內政部下屬的聯邦刑警局24小時係統地跟蹤分析互聯網上的可疑情況,尤其是涉及兒童色情犯罪的信息。

2.與英國和日本相比,德國政府在推廣過濾軟件防範有害信息方麵下的工夫更大。在德國,很多電腦商在出售電腦時會安裝能屏蔽**色情等不良信息的過濾軟件。很多德國家長認為,電腦商加裝的青少年保護軟件不能有效阻止色情等不良信息,所以他們會再加裝另外的過濾軟件。這些軟件大多是免費的,如“ANTI—Porn”、“P

orn Filter”、“Aobo Website Blocker”等。

3.德國的圖書館、學校、政府等各種機構的電腦上都裝有各種色情過濾軟件。如果一些機構不裝,將無法獲得政府提供的技術補助資金。為了阻止色情網站,德國聯邦家庭部近年來也開展了各種活動。家庭部和德國主要電視台等媒體單位還聯合發起了“瞧一瞧,你的孩子在幹什麽?”等行動,這一行動主要針對3歲至13歲孩子的家長。

4.“德國聯邦危害青少年媒體檢查處”是德國政府內專門負責媒體信息安全的機構。自2003年起,該處開始負責識別和檢查所有互聯網內容,目前超過6000個媒體被該處列為青少年不宜接觸的媒體。在德國全國性的自我檢查多媒體服務提供商組織的倡導下,他們還與德國穀歌、雅虎、微軟等主要互聯網服務商達成合作協議,被列為青少年不宜的網站將不會在接受協議的搜索引擎中出現,而繼續提供上述“不宜網站”網址的商家將受到最高1.5萬歐元的罰款。

(三)技術手段

對於過濾軟件,德國以自願安裝為主。2009年4月17日,德國家庭生活部長和聯邦執法政策辦公室主任聯合呼籲,提請民眾“主動”與該國五大網絡服務商聯係,使用由他們提供的網絡過濾保護軟件。4月22日提案得到政府批準。提案中稱,五大網絡服務商可以進入色情網站使用者的係統,如果執法部門需要,服務商有責任提供其信息。加裝過濾器後,凡是點擊上了“黑名單”的網站,都會收到一個巨大醒目的“停止”標誌。

三、新加坡:對互聯網內容實行嚴格的審查製度

(一)對互聯網采取“輕度接觸”管理方式

新加坡對互聯網采取“輕度接觸”的管理方式,主要包括分類許可製、接受建議和鼓勵行業自律、加強公共教育。

早在1996年7月,當時的新加坡廣播管理局(2003年後被新加坡傳媒發展局,即MDA取代,成為互聯網主管機構)就實施了互聯網分類許可製度,力求在不妨礙相關產業健康發展的前提下,對一些重要部門的網絡實施某種可行的控製。新加坡《廣播法》明確規定,新加坡三大電信服務供應商負有屏蔽特定網站的義務。政府有權要求供應商刪除網站中宣揚色情、暴力及種族仇視等內容的言論。若供應商不能履行義務,將會被罰款或被暫時吊銷營業執照。此外,政府還鼓勵供應商開發推廣“家庭上網係統”,幫助用戶過濾掉不合適的內容。

在倡導行業自律方麵,MDA鼓勵網絡行業實行自治,建立自己的評判標準。MDA鼓勵互聯網服務提供商和內容提供商製定自己的內容管理準則,如內容分級標注係統。

(二)對互聯網內容實行嚴格的審查製度

新加坡政府及公眾大多認為,為了防止有害信息,對互聯網實行檢查是十分必要的。在所列舉的需要檢查的7種傳播內容中,新加坡人認為以下三種最需進行檢查:一是向青年人提供的資料;二是可能導致種族衝突的新聞報道;三是有害於種族感情的公開言論。這正是新加坡對互聯網內容進行嚴格審查控製的重要原因。而且,檢查製度在新加坡是被政府長期培植,被公眾作為新加坡社會特色而普遍接受的管理方式。

新加坡政府於1996年發布的《互聯網操作規則》明確規定,“禁止那些與公共利益、公共道德、公共秩序、公共安全和國家團結相違背的內容”。同時,原有《誹謗法》、《煽動法》、《維護宗教融合法案》等相關內容也適用於互聯網管理。具體來說,新加坡網絡規範的內容主要有以下幾個方麵:(1)公共安全和國家防衛的內容。即任何危害公共安全或國家防衛的內容都禁止在互聯網上交流。這些內容具體指:危及公共安全和國家防衛的內容;動搖公眾對法律部門執法信心的內容;驚動或誤導部分或全體公眾的信息;引起人們痛恨和蔑視政府,激發對政府不滿的內容。這些規定確保了公眾在對政府進行批評時自負其責地發表言論。(2)種族和宗教的內容。破壞種族和宗教和諧的內容受到禁止。包括抹黑和譏諷任何種族或宗教團體的內容、在任何種族和宗教之間製造仇恨的內容、提倡異端宗教或邪教儀式,如惡魔崇拜的內容。(3)有關公共道德的內容。敗壞公共道德、與社會主流價值觀相違背的內容被禁止。這些內容主要指:含有色情及猥褻的內容;提倡性放縱和性**的內容;刻畫或大肆渲染暴力、**、性和恐怖的內容;刻畫或宣揚變態性行為等。

新加坡對互聯網進行檢查的重點是對青少年有害的色情信息,但隨著網絡空間中政治爭論日趨增多,檢查內容逐漸從色情內容轉到政治信息方麵。同時,政府任命了一個專門的管理委員會負責在互聯網建立“Singapore Infomap”主頁,發布有關新加坡的信息,同時駁斥錯誤信息。

2005年,17歲的新加坡中學生顏懷旭以“極端種族主義者”自居,在博客表示仇恨馬來人和穆斯林,叫囂要“用狙擊步槍暗殺部分政治人物”。同年11月23日,顏懷旭被新加坡法院依照《煽動法令》判處緩刑監視2年。在此之前,另外兩名年輕的博客作者也被依該法定罪,開了因博客言論獲刑的先河。

四、美國:通過立法對互聯網違法信息進行管製

(一)管理部門

美國政府十分重視互聯網信息安全,並成立了從聯邦到地方、從政府到軍方、從國內到國際的由綜合管理部門、專業部門、研究機構和應急處理部門構成的互聯網信息安全組織體係。

綜合管理部門方麵,在互聯網非法有害信息的預防階段,以美國商務部國家電信和信息管理局(NTIA)、美國聯邦通信委員會(FCC)為代表的電信部門,負責製定、實施相關預防措施政策和標準,推廣、應用“電子分級過濾係統”,起著較明顯的主導作用。

在互聯網非法有害信息的懲處階段,以美國司法部聯邦調查局(FBI)、國防部下屬的國家安全局(NSA)、國土安全部(DHS)等為代表的安全部門,負責調查、偵查各種互聯網違法犯罪活動,為受害者提供司法援助;全麵統籌管理信息安全的事項;製定信息安全的相關政策和標準等。

專門管理性組織及其他治理部門方麵,為了加強互聯網信息管理,美國國會、政府、軍方、民間先後在互聯網信息安全的多個領域成立了信息安全組織。例如,美國國會下屬的信息安全管理機構有國會國家計算機係統安全和個人隱私谘詢委員會、國會計算機安全協會。美國政府下屬的信息安全管理機構有國家保密通信和信息係統安全委員會、美國能源部計算機安全技術中心、美國總務管理局信息安全辦公室等。美國民間的信息安全管理機構有互聯網欺詐投訴中心。美國國際性的信息安全管理機構有事故處理和安全小組論壇等。

(二)法律法規

美國是世界上製定互聯網信息安全法律最早、最多、最完整的國家。美國互聯網信息安全法規體係由涉及互聯網信息基礎設施安全、互聯網信息數據和內容安全、互聯網犯罪的數十部聯邦法案和州法案構成。如:

《計算機安全法》(1987),該法案是美國信息安全的根本大法。

《電子通信隱私法》(1986),該法案明確限製政府對屬於電子服務提供商的用戶和顧客記錄的訪問。

《電信改革法案》(1996),該法案主要內容包括:規定禁止通過互聯網向未成年人傳播有**內容的信息,違反者將被處以最高達2年的有期徒刑和10萬美元以下的罰款。

《公共網絡安全法案》,該法案主要內容包括:出於對國家安全的考慮,商務部可以禁止加密的信息或產品的發布;政府保證網絡安全的同時,還要保證個人的隱私權、知識產權以及網絡使用者的個人安全,如有侵權問題發生,可對侵權人進行懲罰。

《通信內容端正法》(《電訊傳播法案》的一部分),該法規定,在未滿十八歲的未成年人接觸的網絡交互服務和電子裝置上,製作、教唆、傳播或容許傳播任何具有猥褻、低俗的內容(包括言論、詢問、建議、計劃、影像或其他),均被視為犯罪;違者將被處以兩萬五千美元以下的罰金,二年以下有期徒刑,或兩者並罰。

《兒童在線保護法》(COPA,1998),該法規定,商業網站的運營者在允許互聯網用戶瀏覽對未成年人有害的內容之前,應先使用電子年齡驗證係統對互聯網用戶的年齡進行鑒別。商業性的色情網站不得允許17歲以下的未成年人瀏覽“缺乏嚴肅文學、藝術、政治、科學價值的**與性行為影像及文字”的內容。第一次違反者將被處以五萬美元以下罰金,六個月以下有期徒刑,或者兩罰並用,並可每天一罰。

《兒童在線隱私保護法》(COPPA,1998),該法規定,任何提供網絡服務和產品的組織與個人不得通過互聯網電子聯絡(電子郵件、聊天工具等),搜集13歲以下兒童的姓名、家庭住址、電子郵件地址、電話號碼、社會安全號碼或兒童父母的個人信息等,違者將依據《聯邦貿易委員會法案》進行處罰。

《兒童互聯網保護法》(CIPA,2000),該法旨在保護未成年人免遭互聯網色情業的侵害。要求全美的中小學校、公共圖書館為聯網計算機安裝色情過濾係統,確保未達17周歲的未成年人不接觸到提供色情內容的成人網站。政府對學校、公共圖書館建立網絡過濾技術係統提供資金支持,網絡技術服務商在給學校和圖書館提供過濾技術服務時要給予優惠。

(三)管製對象

美國互聯網信息安全管製對象廣泛而深入,這裏主要介紹涉及互聯網違法信息管理的部分:(1)禁止互聯網信息盜竊、信息濫用。(2)公民權(隱私權)保護。(3)防止猥褻信息發布與傳播。《正當通訊法》禁止任何人在公共網絡上傳播黃色或帶有猥褻內容的信息,該法旨在保護未成年人免遭互聯網色情業的侵害。根據該法律,第一次違反者將麵臨最高數個月的監禁和5萬美元的罰款。(4)電子郵件(垃圾郵件)。《電子郵件保護法(1997)》、《美國電子郵件使用者保護法案(1998)》詳細規定了電子郵件的隱私權保護、安全使用等問題。2003年底,美國國會通過垃圾郵件管製法案。(5)治理互聯網信息欺騙(虛假信息)。除傳統法律和案例法中適用於虛假信息及欺詐行為的規定外,1995年6月美國參議院通過了《傳播淨化法案》。此外,美國政府與民間組織合作成立了互聯網欺詐投訴中心,為電子商務的消費者提供服務,通報有欺詐記錄的企業名稱、IP地址、欺詐信息等。

(四)技術手段

美國政府通過各種技術手段來進行針對互聯網絡上傳播的各種非法信息、不良信息、有害信息的管理,其中的兩種主要科技手段為分級(rating system)和過濾(filtering system)。

1.分級係統:對網絡信息內容進行分級是一種很常用的網絡管理手段。這主要是通過對網絡上紛繁複雜的信息內容進行分級整理,使得網絡用戶在通過搜索引擎等方式查找所需內容時,可以直接取得所需內容,而其他一些不符合法律規範、道德規範的不正當內容則會直接被屏蔽掉。比較著名的分級係統有PICS(Platform for Internet Content Selection)、P3P(Platform for Privacy 、Preferences Project)等。

2.過濾係統:對於網絡不良信息的過濾,主要是通過一些過濾軟件來實現的。比如網絡巡邏(Cyber Patrol)過濾軟件的功能就包括:限製每天上網的次數,每天、每周上網的時間,使用不良網站的名單、限製網上某些特定網站的內容,允許監護者設定可以訪問或禁止訪問的網站,控製對網絡服務商提供遊戲的使用等。此外,還可以通過站點和網頁名稱過濾網站信息,通過名稱和特定詞語過濾聊天室內容,通過使用時間或使用期間過濾計算機上的可執行文件等。該軟件采取訂閱服務的辦法對其“CyberYes”和“CyberNot”過濾名單進行更新,“CyberYes”名單中的網站適合兒童閱讀,“CyberNot”名單中的網站則會被過濾,這些網站往往包括性行為、粗俗描述、邪教、毒品、暴力、賭博、煙酒惡習等不適合兒童閱讀的內容,已有數萬個網址被列入該名單。

此外,通過“網絡保姆”提供的“文字通訊監控”功

能,網絡用戶可以事先自行設定好一些涉及個人隱私或不良信息的關鍵詞句,在計算機聯網時,凡是網絡用戶(尤其是未成年用戶)接收到或試圖傳送出的任何資料與之相關,“網絡保姆”都會進行防堵,必要時甚至會中斷聯機。這就保障了網絡用戶特別是未成年用戶,在上網時不會將有關家庭隱私的資料泄露出去。

五、日本:多重手段對互聯網內容進行管製

(一)相關立法

日本從2002年就開始實施《提供商責任限製法》。根據這部法律,若網頁或論壇上傳播的信息對他人名譽等造成了侵害,受害者有權要求網絡服務提供商公開信息發布者的名稱、住址、電子郵件地址及相關IP地址。

為圍剿網絡色情,日本從2003年9月13日起實施《交友類網站限製法》。法律規定,利用交友類網站進行以金錢為目的、與未成年人發生性行為的援助交際,是一種犯罪行為。利用交友類網站發布希望援助交際的信息,可判處100萬日元以下罰款。交友類網站在做廣告時要明示禁止兒童使用,網站有義務傳達兒童不得使用的信息,並采取措施確認使用者不是兒童。家長作為監護人,必須懂得如何使用過濾軟件過濾兒童不宜的內容,並和孩子保持良好溝通。根據日本2004年10月修訂的法律,如果互聯網上傳播的信息造成重大人權侵害,法務省相關機構有權要求網絡服務提供商刪除這些信息。針對如何處理論壇等刊登的集體自殺信息,日本四個電氣通信業團體2005年通過了一項行動指南,規定了網絡服務提供商在警方要求公開自殺預告信息發布者的姓名、住址等資料時應遵循的原則和應履行的手續。

(二)行政手段

日本各級警察部門都公布了舉報電話,並實施“網絡巡邏”。警局職員在受警方委托的團體協助下,監控網站、論壇上的信息。一旦發現違法或有害信息,警方可要求網絡服務供應商或論壇管理者予以刪除。同時,未成年人使用手機也受到監管。此外,受到禁止的並不僅僅是成人內容,政治信息和宗教信息同樣也會經過濾。

(三)技術手段

日本規定,家長作為監護人,必須懂得如何使用過濾軟件過濾兒童不宜的內容,並和孩子保持良好的交流溝通。廣島市議會還在2008年特別規定,手機銷售商和網吧經營者在為未成年人提供服務時,必須在手機和電腦上使用過濾軟件屏蔽有害信息。

從2008年初,日本就已經開始將網絡過濾軟件應用到手機係統。由於手機上網應用普遍,色情內容不僅在成年人中流行,也侵犯到青少年使用的手機。日本要求該國四大手機服務公司加強網上過濾器功能。用日本媒體的話說:“在未來十年中,國家(或更高一級組織,如國家聯盟)出麵組織網絡過濾工作,截斷黑心網站泛濫成災和對兒童的性侵犯,將勢在必行。”

日本媒體報道稱,日本政府和互聯網協會等組織越來越意識到不良網站給青少年帶來的巨大危害。2009年4月1日,《青少年網絡環境整備法》正式實施,法律規定未滿18歲的青少年在購買手機時必須安裝過濾有害網站的軟件。

正是因為有法可依、有章可循,日本網絡上雖然匿名用戶占主流,但網絡空間仍然比較有序。

六、英國:通過立法保障和行業自律並輔以政府指導對網絡進行管製

(一)相關立法

1996年以前,英國主要依據《黃色出版物法》、《青少年保護法》、《錄像製品法》、《禁止泛用電腦法》和《刑事司法與公共秩序修正法》懲處利用電腦和互聯網絡進行犯罪的行為。1996年9月23日,英國政府頒布了第一個網絡監管行業性法規《3R安全規則》。“3R”分別代表分級認定、舉報告發、承擔責任。

根據英國《兒童保護法案》,如果沒有合法理由,故意下載兒童色情圖片者最高可判處10年監禁。如果技術上無法確認圖片來源,網絡服務提供商須從服務器刪除該內容,否則將麵臨被起訴。

2008年後,英國政府以打擊罪案和恐怖主義為由,建立大型資料庫,儲存所有國民的電子郵件、電話通訊和網上資訊等涉及個人隱私的資料;同時授權警方、稅務局、地方議會等近800個官方及半官方機關,向通信網絡商索取國民的電話通訊記錄,並強製性要求網絡商保存記錄至少1年。此後英國內政部進一步擴大監控範圍至互聯網,建議互聯網服務供應商和電信公司提交數以十億計的電郵通訊和上網資料。

(二)行政管理

1996年9月,英國成立了半官方的互聯網行業自律組織“網絡觀察基金會”,致力於解決網絡上日益增多的違法犯罪問題,尤其是兒童色情問題。這個由英國網絡服務提供商自發成立的半官方組織,在英國貿易和工業部、內政部和英國城市警察署的支持下開展日常工作。2001年英國內政部又設立了兒童網絡保護特別工作組,專門負責在網上保護兒童安全。另外,政府還公布了每天24小時開通的兒童熱線,家長和孩子可以隨時就網絡問題尋求幫助。這家基金會為鼓勵從業者自律,與由50家網絡服務提供商組成的聯盟組織、英國城市警察署和內政部等共同簽署了《“安全網絡:分級、檢舉、責任”協議》。基金會以此為基礎,製定了從業人員行為守則,主要精神包括網絡服務提供者有責任確保內容的合法性等。基金會確立的管理原則認為,網絡並不是法律的真空地帶,對其他媒介適用的法律對網絡同樣適用。這家基金會據此製定的網絡內容管理措施為:(1)對外開設熱線,接待公眾投訴。這家基金會在接到公眾投訴後,會評估互聯網上內容是否違法,如果認定是非法內容,就會通過網絡IP地址確定該內容的來源,之後將問題移交給相應執法機構來處理。該基金會同時還會通知網絡服務提供商將該內容從服務器上刪除,如果服務商不這樣做,將會受到起訴。(2)設立內容分級和過濾係統,讓用戶自行選擇需要的網絡內容。除法律明文禁止的不良內容外,該基金會主張對其餘內容分類標注,讓用戶自行決定是否要瀏覽。

“網絡觀察基金會”在2006年成立10周年之際公布的報告顯示,英國網上源自本土的非法內容,特別是與兒童色情有關的內容,已經從1996年的18%下降到了0.2%。在被舉報的網上非法信息源中,來自英國本土的隻占1.6%。

雖然成效顯著,但該基金會認為,英國的網絡管理仍麵臨兩大挑戰:一是需要進一步加強跨國網絡規範合作,互通信息,在全球範圍打擊網上兒童色情等非法內容;二是需要製定一個能被大多數國家認可的統一信息評價標準,以更有效認定網上非法信息。

第二節 我國法律的相關規定

根據我國法律法規,網絡違法信息是指違背《中華人民共和國憲法》和《全國人大常委會關於維護互聯網安全的決定》、《互聯網信息服務管理辦法》等所明文嚴禁的信息以及其他法律法規明文禁止傳播的各類信息。

我國《互聯網信息服務管理辦法》第15條明確規定互聯網信息服務提供者不得製作、複製、發布、傳播含有下列內容的信息:

1.反對憲法所確定的基本原則的;

2.危害國家安全、泄露國家機密、顛覆國家政權、破壞國家統一的;

3.損害國家榮譽和利益的;

4.煽動民族仇恨、民族歧視,破壞民族團結的;

5.破壞國家宗教政策,宣揚邪教和封建迷信的;

6.散布謠言,擾亂社會秩序,破壞社會穩定的;

7.散布**、色情、賭博、暴力、凶殺、恐怖或者教唆犯罪的;

8.侮辱或誹謗他人,侵害他人合法權益的;

9.含有法律、行政法規禁止的其他內容的。

網絡不良信息則是指違背社會主義精神文明建設要求、違背中華民族優良文化傳統與習慣以及其他違背社會公德的各類信息、包括文字、圖片、音視頻等。

就我國法律來說,目前對網絡違法與不良信息的相關主要規定情況如表16-1所示。

表16-1 我國法律對網絡違法與不良信息的相關主要規定情況

(續表)

(續表)

(續表)

第三節 多管齊下治理網絡違法和不良信息

一、政府部門

在互聯網非法信息的預防和懲治階段,世界各國的不同政府部門擁有不同的職能、發揮不同的作用。總體看,在預防階段,各國電信監管機構、文化管理部門擁有較多職能,發揮較大作用;在懲治階段,各國行政司法、公共安全、國家安全等安全管理部門擁有較多職能、發揮較大作用。

而在我國,安全管理部門穿插在互聯網非法有害信息的預防和懲治階段之間,在預防階段,與電信監管機構、文化管理部門一起實行“分工負責、齊抓共管”,在懲治階段,獨立行使查處和事後懲治等職能。這種監督管理體製被稱為“多線混合監管體製”。

依據相關法律與文件,在非法不良信息的預防階段,工信部負責互聯網行業的行政處罰和清理整頓,工信部、網信辦、文化部、新聞出版廣電總局、公安部等共同負責互聯網非法公共信息的舉報受理、發現報告和審計檢查;在實踐中,互聯網非法不良信息專項清理整頓工作,多由包括公安機關在內的多部門共同發起、組織、實施,形成預防階段的“混合監管體製”。在非法有害信息的懲治階段,工信部負責經營性互聯網網絡安全的應急協調,網信辦負責互聯網新聞信息服務、意識形態重大問題的應急處置,公安部負責網上違法犯罪活動的應急協調,事實上形成懲治階段的“混合監管體製”。

但在互聯網違法和不良信息的治理過程中,如果僅僅依靠政府部門的管製,是無法完成互聯網有效管理工作的。隻有充分利用各方麵資源,統籌兼顧,綜合運用法律、行政、自律、教育、技術等多種手段,進行多方協調與合作,才能夠實現互聯網不良信息綜合治理的目標,維護社會的和諧與穩定。

二、行業協會

中國互聯網協會作為我國最大的互聯網行業組織,成立於2001年5月25日,由國內從事互聯網行業的網絡運營商、服務提供商、設備製造商、係統集成商以及科研、教育機構等70多家互聯網從業者共同發起成立。協會設有行業自律、反垃圾郵件和網絡與信息安全工作委員會。在行業自律方麵,協會組織製定、頒布了《互聯網行業自律公約》和《博客服務自律公約》,成立了垃圾郵件舉報受理中心,組織開展了“網絡公益日”和“綠色網絡文化產品推薦”等宣傳活動,在互聯網不良信息治理中發揮了重要的作用。2004年6月,互聯網違法和不良信息舉報中心正式成立,負責受理網民對網上違法和不良信息的舉報。互聯網相關行業協會一般隸屬於政府部門,在宣傳相關互聯網法律法規,向政府部門反映會員和行業的願望,參與國際交流與合作,遏製互聯網違法和不良信息的傳播方麵發揮了重要的作用。

三、互聯網企業

互聯網企業是推動互聯網違法和不良信息治理的中堅力量。開展互聯網違法和不良信息治理,從根本上是符合互聯網企業根本利益的。近年來,多家互聯網企業發起行動,主動從自身做起,配合開展互聯網違法和不良信息治理工作,如“新華網”的違法舉報通道和典型案例“曝光台”、“百度”實行的網站信譽評級係統以及其與中國互聯網違法和不良信息舉報中心聯合發起的“打擊互聯網不良信息、共建和諧網絡環境”的“陽光行動”,以及“優酷網”等視頻網站采取的“先審後發”製度等。2014年,百餘家網站共同簽署《積極受理網民舉報承諾書》,全年共有效處置公眾舉報近2.5億件次。

四、網民

根據中國互聯網絡信息中心(CNNIC)2015年2月發布的《第35次中國互聯網絡發展狀況統計報告》顯示,截至2014年12月,我國網民規模達6.49億,互聯網普及率為47.9%。因此,加強網民的網絡道德教育,呼籲網民舉報各種互聯網不良信息,引導網民積極主動抵製互聯網不良信息,對於互聯網違法與不良信息的治理至關重要。2014年,中國互聯網違法和不良信息舉報中心共受理和處置公眾舉報109.4萬件,其中**色情有害信息82.3萬件,詐騙有害信息11.6萬件,賭博有害信息4.1萬件,暴恐音視頻有害信息2.3萬件,其他侵害網民、法人及社會組織權益的有害信息9.1萬件。

(本章完)