Toll!
Vor allem unter Einbeziehung des [url=http://en.wikipedia.org/wiki/Deep_Web]Deep Webs[/url] steht diese Form der (offenbar nicht einmal metasuchmaschinenbasierenden) Plagiatsprüfung noch größeren Windmühlen gegenüber, als die Contentindustrie in ihrem Kampf gegen die widerrechtliche Verbreitung von Inhalten, an denen sie Nutzungsrechte hält.
Andere (suma-affine) Quellen gehen davon aus, dass Suchmaschinen (anstelle der ca. 0,001-0,1% im wiki Artikel) etwa 1-10% des gesamten Webs erfassen.
Ein gutes und bekanntes Beispiel ist sicherlich das sehr geschätzte [url=http://www.textfeld.ac.at]Textfeld[/url] - der Google Index enthält [url=http://www.google.at/search?hl=de&safe=off&q=site:www.textfeld.ac.at]26 Dokumente[/url] wohingegen auf Textfeld selbst ein Vielfaches an Arbeiten registriert und abrufbar ist.
Und auch die [url=http://www.google.at/search?hl=de&q=%22Es+gibt+dort+keine+Knappheit+an+den+f%C3%BCr+die+Softwareerstellung+n%C3%B6tigen+G%C3%BCtern+wie+Rechnerleistung%22&meta=]Probe aufs Exempel[/url] (Passenderweise ein Halbsatz aus "Kostenlose Informationsgüter im Internet und die Rolle von Reputationssystemen" von Thomas Schandl, im Übrigen äußerst lesenswert!) fällt demgemäß negativ aus.
Disclaimer:
a) Dies ist kein Aufruf zum Plagiieren, denn ein Plagiat ist nebst aller wissenschaftsethischen Aspekte natürlich auch eine mehr oder minder schwere Urheberrechtsverletzung und damit eine Straftat.
b) Das Fallbeispiel oben hinkt sicherheitshalber, da m.W. eingereichte Arbeiten separat mit bereits geschriebenen verglichen werden.
c) Vielmehr soll dieses als Anregung zur aufgeklärten Auseinandersetzung mit Medientechnologie dienen. Denn letzteres scheint ab und an im bunten Web 2.0 (zumindest) förderbefürftig zu sein!