Back to Question Center
0

"Semalt Expert" svetainės duomenų naikinimas - geri ir blogi robotai

1 answers:

Web scraping buvo maždaug ilgą laiką ir laikomas naudingu žiniatinklio valdytojai, žurnalistai, laisvai samdomi vertėjai, programuotojai, neprogramuotojai, rinkodaros tyrėjai, mokslininkai ir socialinės žiniasklaidos ekspertai. Yra du rūšių robotai: geri robotai ir blogi robotai. Gerieji robotai leidžia paieškos sistemoms indeksuoti žiniatinklio turinį, o rinkos ekspertai ir skaitmeniniai rinkodaros specialistai teikia didelę pirmenybę. Kita vertus, blogi robotai yra nenaudingi ir siekia sugadinti svetainės paieškos reitingą. Web apkarpymo teisėtumas priklauso nuo to, kokio tipo robotus naudojate.

Pavyzdžiui, jei naudojate blogus robotus, kurių turinys buvo iš įvairių tinklalapių, siekiant neteisėtai jį naudoti, šiukšlių išbraukimas iš interneto gali būti žalingas. Tačiau jei naudosite gerus robotus ir išvengsite žalingų veiksmų, įskaitant paslaugų išpuolių atsisakymus, internetinius sukčiavimus, konkurencingus duomenų gavybos strategijas, duomenų vagystes, paskyros užgrobimus, neleistiną pažeidžiamumo nuskaitymą, skaitmeninių skelbimų sukčiavimą ir intelektinių nuosavybės vagystes, tada interneto apkarpymo procedūra yra gera ir naudinga, norint išplėsti savo verslą internete.

Deja, dauguma laisvai samdomų vertėjų ir pradedančiųjų mėgsta blogus robotus, nes jie yra pigus, galingas ir išsamus būdas rinkti duomenis be partnerystės poreikio. Vis dėlto didžiosios bendrovės naudojasi teisėtais interneto skreperiais, siekiančiais gauti pelną, ir nenori sugadinti jų reputacijos internete neteisėtais žiniatinklio skreperiais. Bendrosios nuomonės apie tinklalapių išvalymo teisėtumą, atrodo, nėra svarbios, nes pastaraisiais mėnesiais tapo aišku, kad federalinės teismų sistemos sugriauna vis daugiau neteisėtų interneto apkarpymo strategijų.

Web nuskaitymas prasidėjo kaip neteisėtas procesas dar 2000 m., Kai robotų ir vorų naudojimas svetainėms išvalyti buvo laikomas nesąmoningu..Ne daug praktikų buvo pritaikyti, kad šios procedūros nebūtų platinamos internete iki 2010 m. "EBay" pirmą kartą pateikė išankstinius nurodymus prieš "Bidder's Edge", teigdamas, kad robotų naudojimas svetainėje pažeidė "Trespass" ir "Chattel" įstatymus. Teismas netrukus priėmė nutartis, nes vartotojai turėjo sutikti su svetainės nuostatomis ir sąlygomis, o daugelis robočių buvo išaktyvinti, nes jie gali būti žalingi kompiuterių kompiuterių "eBay". Ieškinys netrukus buvo išspręstas iš teismo, o "eBay" sulaikė visus naudodama žiniatinklio išsiuntimą, nepriklausomai nuo to, ar jie yra geri ar blogi.

2001 m. Kelionių agentūra padavė ieškinius konkurentams, kurie nukentėjo savo turinį iš interneto naudodami kenksmingus vorus ir blogus robotus. Teisėjai vėl taikė kovos su nusikalstamumu priemones ir palankiai vertino nukentėjusiuosius, sakydami, kad interneto šveitimo darbai ir robotų naudojimas gali pakenkti įvairiems interneto versliams.

Šiandien akademiniam, privačiam ir informacijos sujungimui daugelis žmonių remiasi sąžiningomis žiniatinklio įbrėžimo procedūromis ir šiuo atžvilgiu sukurta daugybė interneto šveitimo įrankių . Dabar pareigūnai teigia, kad ne visi šie įrankiai yra patikimi, bet tie, kurie pateikiami mokamose ar papildomose versijose, yra geresni už nemokamus interneto šaukštus .

2016 m. Kongresas priėmė pirmąjį įstatymą, kuriuo siekiama nukreipti blogus robotus ir palankiai geriems robotams. Buvo sukurtas "Better Online Ticket Sales" (BOTS) įstatymas, draudžiantis naudoti neteisėtą programinę įrangą, kuri galėtų nukreipti svetaines, sugadinti jų paieškos variklius ir sunaikinti jų verslą. Yra teisingumo dalykai. Pavyzdžiui, "LinkedIn" praleido daug pinigų į įrankius, kurie blokuoja arba pašalina blogus robotus ir skatina gerus robotus. Kadangi teismai stengiasi nuspręsti dėl žiniatinklio įbrėžimų teisėtumo, įmonės turi pavogti duomenis.

December 7, 2017
"Semalt Expert" svetainės duomenų naikinimas - geri ir blogi robotai
Reply