+ Auf Thema antworten
Seite 1 von 3 1 2 3 LetzteLetzte
Zeige Ergebnis 1 bis 10 von 22

Thema: Globale Ueberwachung der digitalen Kommunikation: Sind die Speicherkapazitaeten vorhanden?

  1. #1
    SchwanzusLongusGermanicus Benutzerbild von ABAS
    Registriert seit
    27.09.2009
    Ort
    Hamburgum
    Beiträge
    64.588

    Standard Globale Ueberwachung der digitalen Kommunikation: Sind die Speicherkapazitaeten vorhanden?

    In Bezug auf die angeblich vollumfaengliche und globale Ueberwachung
    der digitalen Kommunikation habe ich mir Gedanken gemacht ob dafuer
    ueberhaupt die technische Kapazitaeten und Personalresourchen bei der
    NSA und anderen Diensten vorhanden sind.

    Um alle digitalisierten Telefongespraeche, eMails, Dateianhaenge die per
    Unterwasserglasfaserkabel und per Satellit durch die ganze Welt geschickt
    werden nicht nur selektiv sondern umfassend auszuwerten, muessten die
    digitalisierten Daten nicht nur mitgeschnitten sondern gespeichert und
    gesichert werden.

    Meiner Ansicht nach besteht das know how die Daten mitzuschneiden
    aber ich halt es fuer unmoeglich die Daten laengere Zeit zu speichern.
    Dabei lege ich folgende Annahme zu Grunde:

    Der gigantische Datenverkehr geht ueber die Netzwerke und wird nicht
    in den Netzwerken gespeichert sondern nur beim Absender und bei dem
    oder den Empfaengern.

    Legen wir nur bei 40 Millionen eMails bzw. Telefongespraechen pro Tag
    eine Datenmenge von 1 Megabyte zugrunde, die ueber die Datenleitung
    geht und abgehoert wird sind das allein in Deutschland dann 40 Millionen
    Megabyte, 40.000 Gigabyte bzw. 40 Terrabyte.

    Wenn jemand groesse Dateianhaenge in den eMails versendet oder z.B.
    lange telefoniert, Bild- oder Videodateien versendet steigt die Menge der
    Daten leicht pro Tag in den Peta- und Exabytebereich an.

    Addiert man alle Daten digitaler Kommunikation anderer Laender die pro
    Tag ueber die Glasfaserkabel und per Satellit verschickt werden muesste
    die NSA, wenn sie nicht nur selektiv auswerten will, sondern alles was an
    digitalen Datenstroemen vorhanden ist, aufzeichnen und abspeichern.
    Das erforderte Speicherkapazitaeten im Zetta- und Yottabytebereich.

    Das diese Speicherkapazitaeten bei der NSA oder einem der anderen
    Geheimdienste zur Verfuegung stehen schliesse ich aus. Ich kann mir
    das nicht vorstellen. Meiner Ansicht nach koennen die Geheimdienste
    die gigantischen Datenstroeme nur mitlesen und selektiv auswerten.

    Informatiker und Hardwarespezialisten duerfen mich gerne mit Belegen
    davon uberzeugen falls ich einem fatalen technischen Irrtum unterliege.
    " Streicht die Kuechenabfaelle fuer die Aussaetzigen! Keine Gnade mehr bei Hinrichtungen!
    Und sagt Weihnachten ab! "

    (Sheriff von Nottingham)

  2. #2
    Autonomer Consul Benutzerbild von Gawen
    Registriert seit
    21.03.2008
    Beiträge
    17.588

    Standard AW: Globale Ueberwachung der digitalen Kommunikation: Sind die Speicherkapazitaeten vorhanden?

    Es genügt, wenn sie die Daten deduplizieren und komprimieren.

    "Nach Angaben des National Public Radio, das William Binney, einen Mathematiker und ehemaligen technical director der NSA zitiert, soll das Rechenzentrum schätzungsweise 5 Zettabyte an Informationen speichern und verarbeiten können.[4] Umgerechnet auf die Weltbevölkerung entspräche diese Kapazität einem Datenvolumen von etwa 700 Gigabyte pro Person."
    (wiki)

    Das langt für Deinen qualifizierten Lebenslauf.

  3. #3
    SchwanzusLongusGermanicus Benutzerbild von ABAS
    Registriert seit
    27.09.2009
    Ort
    Hamburgum
    Beiträge
    64.588

    Standard AW: Globale Ueberwachung der digitalen Kommunikation: Sind die Speicherkapazitaeten vorhanden?

    Zitat Zitat von Gawen Beitrag anzeigen
    Es genügt, wenn sie die Daten deduplizieren und komprimieren.

    "Nach Angaben des National Public Radio, das William Binney, einen Mathematiker und ehemaligen technical director der NSA zitiert, soll das Rechenzentrum schätzungsweise 5 Zettabyte an Informationen speichern und verarbeiten können.[4] Umgerechnet auf die Weltbevölkerung entspräche diese Kapazität einem Datenvolumen von etwa 700 Gigabyte pro Person."
    (wiki)

    Das langt für Deinen qualifizierten Lebenslauf.


    Die Angaben muessen nicht stimme. Die Amis pushen und posen bekanntlich!

    Die einzige Meldung die ich bisher ueber die weltweit groesste und bekannte
    Speicherkapazitaet recherchieren konnte ist von 2011 und zu dem Zeitpunkt
    war die groesste Speicherkapazitaet eine Rechenzentrums ca. 12 Petabyte.

    IBM baut den größten Speicher der Welt

    29.08.2011, 13:33 Uhr | Yaw Awuku

    IBM verbaut 200.000 Festplatten zu einem neuen Rekord-Speicher

    Das hat es noch nie gegeben: 200.000 herkömmliche Festplatten sollen im Verbund den größten Speicher der Welt bilden. Wie das Magazin "Technology Review" berichtet, wird der Rekord-Speicher von IBM 120 Petabyte an Daten aufnehmen können – das sind über 125 Millionen Gigabyte. Damit würde der Datengigant die Kapazitäten der bisher größten Speichersystem um fast das Zehnfache übertreffen.

    Den bisher größten Datenspeicher der Welt entwickelt IBM in seinem Forschungszentrum Almaden im US-Bundesstaat Kalifornien. Der 120 Petabyte große Speicher soll in Zukunft Platz für eine Trillion Dateien bieten. Auf dem digitalen Speichersystem ließen sich aber auch 24 Milliarden MP3s mit einer Dateigröße von jeweils fünf Megabyte speichern. Eine Kopie der WayBack Machine, dem größten Internet-Archiv mit 150 Milliarden Internetseiten, könnte locker 60 mal auf dem Speicher-Riesen abgelegt werden. "Dieses 120 Petabyte-System bewegt sich schon am Rande des Wahnsinns", kommentierte Bruce Hilsberg sein Projekt. Allein das Verwaltungssystem für alle gespeicherten Dateien benötigt zwei Petabyte Speicher.

    [Links nur für registrierte Nutzer]
    Wenn IBM 2011 noch 200.000 Festplatten zu einem Rekordspeicher zusammenschalten musste,
    und das dann ein Maximum von 120 Petabyte ergab, denke ich nicht das sich da in nur 2 Jahren
    soviel getan hat. Das ist unwahrscheinlich zumal die USA seit Jahren finanziell insolvent sind!

    Ich vermute allmaehlich das die gesamte Aktion der angeblichen globalen Ueberwachung durch
    die NSA eine systematische Strategie der Einschuechterung und Verunsicherung ist und Snowdon
    damit der NSA ein gefallen getan hat oder sogar beauftragt wurde.
    Geändert von ABAS (12.07.2013 um 23:18 Uhr)
    " Streicht die Kuechenabfaelle fuer die Aussaetzigen! Keine Gnade mehr bei Hinrichtungen!
    Und sagt Weihnachten ab! "

    (Sheriff von Nottingham)

  4. #4
    SchwanzusLongusGermanicus Benutzerbild von ABAS
    Registriert seit
    27.09.2009
    Ort
    Hamburgum
    Beiträge
    64.588

    Standard AW: Globale Ueberwachung der digitalen Kommunikation: Sind die Speicherkapazitaeten vorhanden?

    Google hat bekanntlich die groesste Speicherkapazitaet in seinen Rechenzentren
    und haengt dafuer an einem eigenen Stromnetz. 2012 hatte Google eine Kapazitaet
    von 40 Petabyte und damit 4 mal mehr als der groesste Supercomputer:

    What is Google's total computational capacity?

    I estimate: 40 petaflops

    This is 4x as powerful as the world's most powerful supercomputer.

    For competitive reasons Google doesn't reveal this information themselves. We can, however, estimate their total number of servers together with the capacity per server. These figures can then be compared to other high-performance computer systems and used to extrapolate total capacity.

    Number of servers

    In a previous post from January 2012 (goo.gl/Dg1va) I calculated that Google's total number of servers is around 1,800,000. This includes all eight of their self-built data centers currently in operation worldwide. Other respected industry watchers are saying Google has 900,000 servers (goo.gl/X769K). But that figure is based on only a single data point (energy usage) that is both unreliable and over a year old. Google have opened whole new data centers since then. So I still think 1,800,000 is a reasonable up-to-date estimate.

    Average power per server

    In 2009 it was revealed that the average Google server is a commodity-class, dual-processor, dual-core, x86 PC system. That is, each server has four processor cores. See the paper where this is described: goo.gl/ipFLt (PDF, page 7). Note that this paper was published three years ago. It's quite possible that the servers are replaced over a three-year cycle. So the average now, in 2012, might be a dual-processor, quad-core system (eight cores per server, or even more). But let's be conservative and assume the 2009 info is still valid.

    This means Google is running ~7,200,000 processor cores.

    Google has said they go for power in numbers. That is, they use lots of cheap processors rather than a smaller number of costlier, more powerful ones. Let's assume then that the average processor is one that first came to market five years ago, i.e. in 2007. This might be the Intel Core2 Duo E4400 (goo.gl/SjcJZ) running at 2 GHz. This processor is capable of around 6 gigaflops per core. Multiply that by our estimated number of cores and Google's total comes out at 43 petaflops.

    The capacity of a system is not, however, a simple multiplication of core count and flops-per-core. Rarely can a system reach its theoretical maximum. So for that reason it's helpful to look at other large-scale systems where the total capacity is known.

    TOP500 supercomputers

    According to the top500.org list, the world's most powerful supercomputer is currently the K computer in Japan. It has 705,024 processor cores and a maximum speed of 10 petaflops. This gives it an average speed-per-core of 14.9 gigaflops.

    The K computer uses Sparc VIIIfx processors which are rated at 16 gigaflops per core. This tells us that the supercomputer is achieving 93% of the theoretical capacity of all its processors combined. If Google's servers achieve a similar percentage that would mean their total capacity is 40 petaflops, or four times that of the K computer.

    Note that even if Google were able and inclined to run the Linpack benchmark across their whole platform they still wouldn't qualify for inclusion in the TOP500 list. Supercomputers only qualify if they're housed entirely under a single roof.

    Amazon EC2 Cluste
    r

    An Amazon EC2 Cluster instance is currently number 42 on the TOP500 list. Like Google, it is also built using commodity hardware. The exact details are not known, but their web pages mention Xeon and Opteron x86 processors. In a benchmark test the cluster was able to achieve 240 teraflops using 17,024 cores. This averages to 14 gigaflops per core. If Google's servers are around the same performance, that would give them a total of just over 50 petaflops.

    Grid computing

    BOINC is a grid computing system originally developed for the SETI@home project. Volunteers around the world download client software which utilizes their PC's spare CPU cycles for scientific research. As of February 2012 the system has ~450,000 active computers (hosts) and processes on average 5.7 petaflops.

    If we assume that the average BOINC host has the same power as the average Google server, and if we also assume that the average BOINC host is utilized the same amount of time as a Google server, then we can simply multiply the figures. Google has four times the number of servers as BOINC has hosts, so that would mean Google's total processing power is 22.8 petaflops.

    Folding@home is another distributed computing project similar to BOINC. It is designed to perform simulations of protein folding and other molecular dynamics. As of February 2012 the project had around 414,000 active processors for a total of 8.4 petaflops. If we assume that Google's average processor performs similar to the average Folding@home processor, this would bring Google's total processing power to 36 petaflops.

    Future growth

    If Google's computational capacity grows according to Moore's Law then it will double every 18 months. This means Google will become an exascale machine (capable of 1 exaflops) by 2019.

    Google said themselves in 2009 that their system is designed for 1 to 10 million servers (goo.gl/kR2ph). If they have ~2 million currently, that means there's room for five-fold growth, which would mean up to ~200 petaflops.

    To reach 1 exaflops Google might need to evolve their architecture. Maybe that they'll start using GPUs, or processors with hundreds of cores. I've no idea, but I would guess someone inside Google is already thinking about it.

    [Links nur für registrierte Nutzer]
    Google prognostieziert die technische Entwicklung der eigenen Speicherkapazitaeten
    erst im Jahr 2019 auf den Exabyte Bereich. Daher halte ich es fuer hoechst
    unwahrscheinlich das die NSA 2013 schon auf diesem Technikstand ist und
    die Speicherkapazitaeten hat. So wie ich das sehe haben Edward Snowden und die
    NSA die ganze Welt verascht! Das nenne ich gelungenes Pushing und Posing!
    Mao war nicht nur weise sondern auch ein Seher und hatte Recht: Die Amerikaner
    waren, sind und bleiben nur "Papiertiger"!

    Ich werde jetzt mal meiner Frau sagen sie soll mit ihrer Mutter in China
    telefonieren. Das geht dann mehrere Stunden. Vermutlich brechen dann
    im Rechenzentrum der NSA die Server zusammen!
    Geändert von ABAS (12.07.2013 um 23:51 Uhr)
    " Streicht die Kuechenabfaelle fuer die Aussaetzigen! Keine Gnade mehr bei Hinrichtungen!
    Und sagt Weihnachten ab! "

    (Sheriff von Nottingham)

  5. #5
    SchwanzusLongusGermanicus Benutzerbild von ABAS
    Registriert seit
    27.09.2009
    Ort
    Hamburgum
    Beiträge
    64.588

    Standard AW: Globale Ueberwachung der digitalen Kommunikation: Sind die Speicherkapazitaeten vorhanden?

    Die Top 500 Liste der weltweit leistungsstaerksten Supercomputer:

    Plaetze 1- 10 (Stand Juni 2013)

    1 National University of Defense Technology
    China Tianhe-2 (MilkyWay-2) - TH-IVB-FEP Cluster, Intel Xeon E5-2692 12C 2.200GHz, TH Express-2, Intel Xeon Phi 31S1P
    NUDT 3120000 33862.7 54902.4 17808

    2 DOE/SC/Oak Ridge National Laboratory
    United States Titan - Cray XK7 , Opteron 6274 16C 2.200GHz, Cray Gemini interconnect, NVIDIA K20x
    Cray Inc. 560640 17590.0 27112.5 8209

    3 DOE/NNSA/LLNL
    United States Sequoia - BlueGene/Q, Power BQC 16C 1.60 GHz, Custom
    IBM 1572864 17173.2 20132.7 7890

    4 RIKEN Advanced Institute for Computational Science (AICS)
    Japan K computer, SPARC64 VIIIfx 2.0GHz, Tofu interconnect
    Fujitsu 705024 10510.0 11280.4 12660

    5 DOE/SC/Argonne National Laboratory
    United States Mira - BlueGene/Q, Power BQC 16C 1.60GHz, Custom
    IBM 786432 8586.6 10066.3 3945

    6 Texas Advanced Computing Center/Univ. of Texas
    United States Stampede - PowerEdge C8220, Xeon E5-2680 8C 2.700GHz, Infiniband FDR, Intel Xeon Phi SE10P
    Dell 462462 5168.1 8520.1 4510

    7 Forschungszentrum Juelich (FZJ)
    Germany JUQUEEN - BlueGene/Q, Power BQC 16C 1.600GHz, Custom Interconnect
    IBM 458752 5008.9 5872.0 2301

    8 DOE/NNSA/LLNL
    United States Vulcan - BlueGene/Q, Power BQC 16C 1.600GHz, Custom Interconnect
    IBM 393216 4293.3 5033.2 1972

    9 Leibniz Rechenzentrum
    Germany SuperMUC - iDataPlex DX360M4, Xeon E5-2680 8C 2.70GHz, Infiniband FDR
    IBM 147456 2897.0 3185.1 3423

    10 National Supercomputing Center in Tianjin
    China Tianhe-1A - NUDT YH MPP, Xeon X5670 6C 2.93 GHz, NVIDIA 2050
    NUDT 186368 2566.0 4701.0 4040


    [Links nur für registrierte Nutzer]

    Tianhe-2, a supercomputer developed by China’s National University of Defense Technology, is the world’s new No. 1 system with a performance of 33.86 petaflop/s on the Linpack benchmark, according to the 41stedition of the twice-yearlyTOP500 list of the world’s most powerful supercomputers. The list was announced June 17 during the opening session of the 2013 International Supercomputing Conference in Leipzig, Germany.

    Tianhe-2, or Milky Way-2, will be deployed at the National Supercomputer Center in Guangzho, China, by the end of the year. The surprise appearance of Tianhe-2, two years ahead of the expected deployment, marks China’s first return to the No. 1 position since November 2010, when Tianhe-1A was the top system. Tianhe-2 has 16,000 nodes, each with two Intel Xeon IvyBridge processors and three Xeon Phi processors for a combined total of 3,120,000 computing cores.

    Titan, a Cray XK7 system installed at the U.S. Department of Energy’s (DOE) Oak Ridge National Laboratory and previously the No. 1 system, is now ranked No. 2. Titan achieved 17.59 petaflop/s on the Linpack benchmark using 261,632 of its NVIDIA K20x accelerator cores. Titan is one of the most energy efficient systems on the list, consuming a total of 8.21 MW and delivering 2,143 Mflops/W.

    Sequoia, an IBM BlueGene/Q system installed at DOE’s Lawrence Livermore National Laboratory, also dropped one position and is now the No. 3 system. Sequoia was first delivered in 2011 and has achieved 17.17 petaflop/s on the Linpack benchmark using 1,572,864 cores. Sequoia is also one of the most energy efficient systems on the list, consuming a total of 7.84 MW and delivering 2,176.6 Mflops/W.

    Fujitsu’s “K computer” installed at the RIKEN Advanced Institute for Computational Science (AICS) in Kobe, Japan, is now the No. 4 system with a performance of 10.51 Pflop/s on the Linpack benchmark using 705,024 SPARC64 processing cores.

    A second BlueGene/Q system, Mira, installed at Argonne National Laboratory is at No. 5 with 8.59 petaflop/s on the Linpack benchmark using 786,432 cores.

    Rounding out the Top 10 are the upgraded Stampede at the Texas Advanced Computing Center of the University of Texas, Austin; JUQUEEN at the Forschungszentrum Juelich in Germany (and the most powerful system in Europe); an IBM BlueGene/Q system at Lawrence Livermore National Laboratory; SuperMUC, an IBM iDataplex system installed at Leibniz Rechenzentrum in Germany; and Tianhe-1A at the National Supercomputing Center in Tianjin, China.

    [Links nur für registrierte Nutzer]
    Geändert von ABAS (13.07.2013 um 00:29 Uhr)
    " Streicht die Kuechenabfaelle fuer die Aussaetzigen! Keine Gnade mehr bei Hinrichtungen!
    Und sagt Weihnachten ab! "

    (Sheriff von Nottingham)

  6. #6
    SchwanzusLongusGermanicus Benutzerbild von ABAS
    Registriert seit
    27.09.2009
    Ort
    Hamburgum
    Beiträge
    64.588

    Standard AW: Globale Ueberwachung der digitalen Kommunikation: Sind die Speicherkapazitaeten vorhanden?

    Rechenzentren der Welt mit der groessten Speicher und Rechenleistung:

    Top 10: Die größten Rechenzentren der Welt

    25.04.2010

    Platz 1: Lakeside Technology Center

    Das Gebäude an der 350 East Cermark Road in Chicago erfüllt die Vorstellung von einem Rechenzentrum ganz und gar nicht. Es wurde 1912 errichtet und beherbergte ursprünglich die Druckerpressen für Versandhauskataloge und Telefonbücher. Heute gehört es dem Unternehmen Digital Realty Trust, einer der größten Betreiber von Rechenzentren in den USA. Auf 102.000 Quadratmetern haben etwa 70 Peering- und Connectivity-Provider ihre Server untergebracht.

    Versorgt wird das Gebäude mit 100 Megawatt elektrischen Strom. Damit ist das Lakeside Technology Center der zweitgrößte Abnehmer des lokalen Energieversorgers ComEd – gleich hinter dem internationalen Flughafen von Chicago. Bei der Kühlung der Server-Räume nutzt der Betreiber einen riesigen Tank mit über 32 Millionen Liter Kühlflüssigkeit, der auch andere Industrieeinrichtungen in der Gegend versorgt. Die Flüssigkeit wird über einen Wärmeaustauscher an das eigene Kühlsystem gekoppelt, das aus einem Wasser-Glykol- und Luftkühl-System besteht.


    [Links nur für registrierte Nutzer]
    " Streicht die Kuechenabfaelle fuer die Aussaetzigen! Keine Gnade mehr bei Hinrichtungen!
    Und sagt Weihnachten ab! "

    (Sheriff von Nottingham)

  7. #7
    SchwanzusLongusGermanicus Benutzerbild von ABAS
    Registriert seit
    27.09.2009
    Ort
    Hamburgum
    Beiträge
    64.588

    Standard AW: Globale Ueberwachung der digitalen Kommunikation: Sind die Speicherkapazitaeten vorhanden?

    Prototyp des groessten Speichers der Welt hatte 2011 die Speicherleistung von 120 PetabByte
    und damit eine 4 mal so grosse Kapazitaet wie konventionelle Hochleistungsrechner.

    News: Der größte Speicher der Welt kommt von IBM
    erstellt am: 30.08.2011

    Bruce Hilsberg kann sichtlich stolz auf sein ambitioniertes Projekt sein. “Dieses Projekt ist jetzt am Rande des Wahnsinns, aber in ein paar Jahren werden vielleicht alle Cloud Computing-Systeme so aussehen”, spricht der Projektleiter bei IBM begeistert über den größten Speicher der Welt. 120 Petabyte Platz bietet das Monster, was etwa dem Umfang von über 125 Millionen Gigabyte entspricht. Um diese enorme Kapazität zu erreichen, wurden rund 200.000 Festplatten miteinander gekoppelt.
    Natürlich sind damit auch logische Schwierigkeiten verbunden. Fällt eine der zahlreichen Festplatten urplötzlich aus, kann es recht leicht zu Datenverlusten kommen. Dem möchte IBM mithilfe des sogenannten RAID-System entgegenwirken. Bei diesem System werden von Daten auf anderen Festplatten mehrere Kopien abgelegt. Das erzeugt jedoch einen hohen Arbeitsaufwand für das System, wodurch die Leistung beeinträchtigt werden kann. Auch hier hat IBM die passende Antwort. Extra für den Riesen-Speicher entwickelte das Unternehmen einen eigenes Dateisystem, welches auf den Namen General Parallel File System, kurz GPFS, hört. Hierbei sollen etwa 10 Millarden Daten innerhalb von 43 Minuten indiziert werden. Das ist neuer Rekord. Denn bislang war es lediglich möglich, eine Milliarden Dateien in drei Stunden zu indizieren.
    Allerdings ist bislang nicht bekannt, warum IBM an dem größten Speicher der Welt werkelt. Ein Auftraggeber ist bislang ebenfalls nicht bekannt. Solch großen Speicherkapazitäten werden vor allem für komplexe Simulationen benötigt. Ein besonders beliebtes Gebiet ist hier die Berechnung und Verarbeitung von Wetterdaten.
    [Links nur für registrierte Nutzer]
    " Streicht die Kuechenabfaelle fuer die Aussaetzigen! Keine Gnade mehr bei Hinrichtungen!
    Und sagt Weihnachten ab! "

    (Sheriff von Nottingham)

  8. #8
    SchwanzusLongusGermanicus Benutzerbild von ABAS
    Registriert seit
    27.09.2009
    Ort
    Hamburgum
    Beiträge
    64.588

    Standard AW: Globale Ueberwachung der digitalen Kommunikation: Sind die Speicherkapazitaeten vorhanden?

    Die Rangliste der groessten Hoster weltweit nach Anzahl der Servern:

    Hoster Rangliste (nach Servern)

    Immer wieder liest man von den ominösen und riesigen Rechenzentren von Google.* Allerdings ist Google nicht der Einzige der mittlerweile riesige Serverfarmen betreut und betreibt.
    Ich habe mir die Mühe gemacht und auf Basis der Vorlage hier einige Hoster zusammengefasst, die über eine ziemlich hohe Serverzahl verfügen. Da wären unter anderem:
    OVH: more than 70.000 Server
    1&1 Internet: 65.000 Server
    Rackspace: 50.038 Server
    The Planet: 48.500 Server
    Akamai Technologies: 48.000 Server
    Hetzner: 40.000 Server
    Strato: 35.000 Server
    Plusserver (inkl. Server4you und Serverloft): 30.000 Server
    Verizon: 25.788 Server
    Time Warner Cable: 24.817 Server
    SoftLayer: 24.000 Server
    AT&T: 20.068 Server
    Hosteurope: bis zu 24.000 Server
    Peer1/ServerBeach: 10.277 Server
    iWeb: 13,800 Server

    Alle Angaben stammen aus Pressemitteilungen und beruhen auf Angaben der Unternehmen. Einige Daten wurden mit Netcraft ermittelt.
    Natürlich waren oben genannten Unternehmen, nicht alle, die über tausende an Servern verfügen. Viele Unternehmen machen aus ihrer Serverzahl ein Geheimnis und lösen bei Vielen eine Welle der Spekulation aus. Das sind vor allem kleinere Unternehmen oder aber auch die ganz Großen…

    Hier noch mal eine Aufstellung an Unternehmen, bei denen man davon ausgehen kann, dass sie über mehr als 50.000 Server in Betrieb haben. Zum Teil deutlich…

    Google:
    Seit jeher gibt es zahlreiche Spekulatione über die Serveranzahl im Hause Google. Vielen Schätzungen zufolge beläuft sich die Serverzahl auf 450.000, diese Zahl stammt jedoch aus dem Jahre 2006. Inzwischen findet man ein weiteres Google-Rechenzentrum in Spree. Vor kurzem gab Google bekannt, dass dieses Container-Rechenzentrum über mehr als 45. Server verfügt.

    Microsoft:
    Die letzten Serverzahlen, die man von Microsoft erhielt, stammen aus dem 2. Quartal des Jahres 2008. Damals stand der Zähler bei 218.000 Servern. Inzwischen geht man davon aus, dass aufgrund der neuen Einrichtung in Chicago die Zahl der Server auf über 300.000 angestiegen ist. Wird diese Anlange weiter eingesetzt, so wird die Anzahl der Microsoft-Server weiter rapide ansteigen.

    Amazon:
    Amazon verfügt über den größten Online-Shop der Welt. Amazon gibt sehr wenig über seinen Daten-Center-Betrieb preis, jedoch weiß man, dass über 86 Millionen Dollar für Server von Rackable ausgegeben wurden. Im S3 Speicher-Service befinden sich zurzeit über 40 Milliarden Objekte.

    eBay:
    160 Millionen Menschen sind auf der Plattform des Online-Auktionshaus aktiv. Zusätzlich kommen noch 443 Millionen Skype-Nutzer hinzu. Dies erfordert ein riesiges Rechenzentrum. Insgesamt sind über 8,5 Petabyte Daten von Ebay gesichert. Die Serverzahl von eBay kann schwer geschätzt werden, mit Sicherheit gehört eBay aber in den 50.000 Server-Club.

    Yahoo:
    Das Yahoo-Rechenzentrum ist zwar wesentlich kleiner als jene von Google und Microsoft, dennoch ist davon auszugehen, dass Yahoo üb mehr als 50.000 Server in Betrieb hat, die den kostenlosen Hosting-Betrieb sowie die bezahlten Hostings und den Yahoo Store unterstützen.

    GoDaddy:
    GoDaddy ist mit mehr als 35 Millionen Domains, das Unternehmen, dass die meisten Domains registriert hat. Zusätzlich zählt GoDaddy zu den größten Hosting-Operatoren der Welt. Die Infrastruktur des Unternehmens erinnert an jene von 1&1 Internet.

    HP/EDS:
    Dieses Unternehmen hat ein enorm großes Rechenzentrum. Unternehmensdokumente besagen, dass EDS über 380.000 Server in 180 Rechenzentren verfügt.
    IBM: Die Fläche des Rechenzentrums von IBM beträgt über 8 Millionen Quadratmeter. Daraus ergibt sich auch eine hohe Anzahl an Servern, die sowohl für das Unternehmen als auch für seine Kunden sind.

    Facebook:
    Die einzige Information, die Facebook bekannt gab, ist dass das Unternehmen im Rechenzentrum mehr als 10.000 Server stehen hat. Da Facebook über 200 Millionen Benutzer verfügt, die mehr als 40 Milliarden Fotos eingestellt haben, ist davon auszugehen, dass die Zahl der Server über 50.000 hinausgeht. Neuerdings möchte Facebook eine ähnliche RZ-Architektur wie Google einsetzen.

    [Links nur für registrierte Nutzer]
    " Streicht die Kuechenabfaelle fuer die Aussaetzigen! Keine Gnade mehr bei Hinrichtungen!
    Und sagt Weihnachten ab! "

    (Sheriff von Nottingham)

  9. #9
    SchwanzusLongusGermanicus Benutzerbild von ABAS
    Registriert seit
    27.09.2009
    Ort
    Hamburgum
    Beiträge
    64.588

    Standard AW: Globale Ueberwachung der digitalen Kommunikation: Sind die Speicherkapazitaeten vorhanden?

    Im Fruehjahr 2012 begannen die gezielte Desinformationskampaganen des CIA ueber
    die vorgeblich vorhandenen bzw. im Ausbau befindlichen gigantischen Speicher- und
    Rechenkapazitaeten der NSA die zur Taeuschung den Eindruck der Moeglichkeit einer
    totalen Ueberwachung des globalen digitalen Datenverkehrs durch die NSA in die Medien
    lanciert wurden. Die CIA und NSA beabsichtigen damit im Cyberkrieg weltweit als eine
    ueberlegene Macht angesehen zu werden und positionieren sich damit selbst staerker
    als die USA tatsaechlich sind:

    USA arbeiten am größten Datenstaubsauger der Welt
    15.05.12
    Spionagemaschine


    USA arbeiten am größten Datenstaubsauger der Welt

    Von Google-Suchen bis zu Finanztransaktionen: In einem Supercomputer in einer Salzwüste will der amerikanische Geheimdienst NSA alles speichern. Und solche Datenkraken sind kein Einzelfall. (von Ulrich Clauß)

    Es soll einer der größten Datenspeicher der Welt werden, das "Utah Data Center" in der Salzwüste nahe Bluffdale im Südwesten der USA. Bauherr ist die National Security Agency (NSA), und gespeichert werden soll dort einfach alles: Weltweit eingefangener E-Mail-Verkehr, Telefonate, Google-Suchen, Facebook-Einträge, Navigationsdaten, Finanzverkehr – alles, was in digitaler oder analoger Form rund um den Erball schwirrt.
    Zwei Milliarden Dollar kostet der Komplex die USA, der ein weltweites Spionagesystem vervollständigen soll. Das Datenvolumen der Einrichtung soll in der Größenordnung von Yottabytes bemessen sein. Ein Yottabyte ist eine Billiarde Gigabyte (Handelsübliche Laptops haben derzeit etwa 500 Gigabyte). Ende 2013 soll der Datenspeicher fertig sein.

    Große Rechenkapazitäten für Entschlüsselung nötig

    Doch das ist nur die eine Seite dieses gigantischen Projektes der "N(o) S(uch) A(gency)", wie Mitarbeiter gern die extreme Geheimhaltung ihres Arbeitgebers ironisieren. Denn ohne gigantische Rechenkapazitäten zur Entschlüsselung geschützter Datenbestände ist auch der größte Geheimdienstspeicher nichts wert.
    Ab 2018 sollen eine Batterie Supercomputer zur Analyse der Datenmassen funktionstüchtig sein. Denn wer die weltweit eingesammelten Datenschätze tatsächlich heben will, muss über avancierte Entschlüsselungsmethoden und ungeheure Rechenkapazitäten verfügen.

    Die modernste Spionagemaschine der Welt

    Technisch stellt der Komplex dann die modernste Spionagemaschine der Welt dar, politisch ist sie aber für viele ein Albtraum – zumindest für Datenschützer und Bürgerrechtler und sogar für einige Spionage-Experten selbst. "Wir stehen unmittelbar vor einem schlüsselfertigen totalitären Staat", so formulierte es der ehemalige NSA-Beamte William Binney, einst ein hochrangiger Verschlüsselungsexperte der Agency, der jetzt wesentliche Informationen über das Utah Data Center im amerikanischen Magazin "Wired" preisgab.
    Eine parlamentarische Kontrolle der NSA scheint tatsächlich kaum zu greifen. Die Befugnisse der US-Sicherheitsdienste sind nach 9/11 (Homeland Security Act) ohnehin nahezu unbegrenzt. Die Ermächtigung durch die neue Infrastruktur ist nahezu grenzenlos. Werden also Datenschutz und Bürgerfreiheit in der Salzwüste von Utah endgültig zu Grabe getragen?
    Das ist eine Frage des Standpunktes. Dass Freiheit ohne Sicherheit nicht zu haben ist, diese Erkenntnis ist so alt wie die Menschheit. Und so gehören Spionage und Gegenaufklärung seit jeher nicht nur zum Kampf um Macht und Geld – sondern eben auch zum Kampf um Freiheit. Neu allerdings sind Umfang und Mächtigkeit der Organisationen, die dieses Geschäft betreiben. Dass die NSA und die US-Militär-Logistik auf diesem Gebiet weltweit führend sind, hat dabei nicht zuletzt historische Gründe.

    NSA-Vorläufer war die "schwarze Kammer"

    1919 wurde als früher Vorläufer der NSA die Einheit MI-8, die sogenannte schwarze Kammer gegründet. Mit ihr eroberten sich die USA praktisch die Vorherrschaft auf dem Gebiet der sicherheitspolitisch eingesetzten Kryptologie. Finanziert wurde MI-8 vom US-Außenministerium und der Armee. Eine Gruppe von Kryptografen sollte sich vorrangig um das Knacken von Verschlüsselungen kümmern.

    Gegründet wurde die Struktur der NSA von US Präsident Harry S. Truman in den 1940er-Jahren als Abteilung des Verteidigungsministeriums. Direkter Vorläufer war die Armed Security Agency (ASA). Seit November 1952 hat sie offiziell den Auftrag, ausländische Nachrichtenverbindungen aufzuklären. Sie ist direkt dem Nationalen Sicherheitsberater des Präsidenten unterstellt. Ihrer Charta nach arbeitet sie nicht operativ mit eigenen Einsatzkräften wie etwa die CIA, sondern ausschließlich beobachtend. Doch das könnte sich bald ändern.

    Cyber-Kriege finden längst statt


    Im Zusammenhang mit den Bedrohungen durch Cyber-Attacken auf kritische Infrastruktureinrichtungen wie Kraftwerke und Wasserwerke durch Terroristen oder unfreundlich gesinnte Regime haben führende Sicherheitspolitiker der USA in den vergangenen Monaten mit beeindruckenden Argumenten immer wieder auf eine "aktive" Rolle der Cyber-Abwehr gedrängt. Ein rein passiver Schutz reiche nicht mehr aus, so ihr Votum.
    Und wer könnte gegebenenfalls diese "aktive" Rolle besser spielen als die NSA mit ihren Spezialisten? Cyber-Kriege kennen jedenfalls weder Konvention noch Kriegserklärung – und glaubt man den Verteidigungsexperten finden sie längst statt. Jeden Tag im Netz und mit beträchtlichen, nur sehr selten öffentlich eingestandenen Schäden.

    "Echelon" blieb lange Zeit ein Mythos


    All das war bereits absehbar im Zeitalter der analogen Telefonie, als die NSA schon ein weltweites, auf Bodenstationen wie Satelliten gestütztes Abhörnetz mit dem Systemnamen "Echelon" (griechisch, auf Deutsch "Schlachtordnung", auch "Beugungsgitter") betrieb. Bereits 1976 hatte ein ehemaliger NSA-Mitarbeiter die Existenz von Echelon auf einer Pressekonferenz enthüllt. Nachfragen an ihn waren damals allerdings nur kurze Zeit möglich, noch im selben Jahr verschwand der Mann spurlos......


    [Links nur für registrierte Nutzer]
    " Streicht die Kuechenabfaelle fuer die Aussaetzigen! Keine Gnade mehr bei Hinrichtungen!
    Und sagt Weihnachten ab! "

    (Sheriff von Nottingham)

  10. #10
    SchwanzusLongusGermanicus Benutzerbild von ABAS
    Registriert seit
    27.09.2009
    Ort
    Hamburgum
    Beiträge
    64.588

    Standard AW: Globale Ueberwachung der digitalen Kommunikation: Sind die Speicherkapazitaeten vorhanden?

    Faktenlage:

    Die Datendimensionen

    1.024 KB ein Megabyte = 210 KiloByte
    1.024 MB ein Gigabyte = 210 MegaByte
    1.024 GB ein Terabyte = 210 GigaByte
    1.024 TB ein Petabyte = 210 TeraByte
    1.024 PT ein Exabyte = 210 PetaByte
    1.024 EB ein Zetabyte = 210 ExaByte
    1.024 ZB ein Yotabyte = 210 ZetaByte

    Der Energieaufwand

    40 PetyByte Speicher- und Rechenleistung benoetigen ca. 100 Megewatt Energie.
    ExaByte Rechner seitens des Energiebedarfes schwer in den Griff zu bekommen.
    Was ein Speicher- und Rechensystem im Zeta- und YptByte Bereich an Strom fuer
    den Betrieb benoetigt kann meiner Ansicht nach nicht gedeckt werden. Da gingen
    in den USA die Lichter aus weil das Stromnetz kolabierte.

    Das Kuehlproblem

    Rechenzentren erfordern schon bei der bekannten Hoechstleistung von bisher
    ca. 40 PetaByte einen erheblichen Aufwand fuer das Kuehlsystem


    Das Verwaltungsproblem

    Der Prototyp Superrechner von IBM mit einer maximalen Leistung von
    120 PetaByte benoetigte davon schon mehr als 10 % fuer den Aufwand
    der Indizierung und Verwaltung der Daten.


    Analyse:


    Im Jahre 2011 hat IGM einen Supercomputer mit einem riesen Aufwand
    konstruiert indem 200.000 herkoemmliche Festplatten zu einer Einheit
    zusammengeschaltet wurden die dann 120 Petabyte Speicherleistung und
    damit 4 mal soviel Daten speichern konnte als die groessten Rechnenzentren.

    2013 liegen die Top Computer mit der groessten Speicher- und Rechenleistung
    immer noch im Bereich von ca. 30-40 PetaByte. Fuer die Stromversorgung
    sind dabei ca. 100 Megawatt und ein extrem hoher Aufwand fuer die Kuehlung
    notwenig.

    Das die Amerikaner binnen nur eines Jahres Supercomputer entwickelt und
    zur Anwendungsreife gebracht haben der im YotaByte Bereich liegt ist daher
    nicht nur unwahrscheinlich sondern auch vom Energiebedarf und Kuehlsystem
    unmoeglich.

    Ein derartiger Supercomputer haette nicht nur einen gigantischen Bedarf an
    Energie und Kuehlung sondern erforderte auch ein Verwaltungssystem das
    es bisher fuer diese Groessenordnung auf der ganzen Welt nicht gibt.

    Ich gehe daher davon aus das es sich bei der Veroeffentlichung der von den
    NSA vorgeblich praktizierten vollumfaenglichen globale Ueberwachung um
    eine psyische Cyberkriegfuehrung handelt, aehnlich wie es mit dem von der
    USA synthetische erzeugten Finankrieg war.

    Die Hintermaenner der Regierung wollen in der Weltoeffentlichkeit das Bild
    erwecken das sie zu totaler Ueberwachung faehig und technisch den anderen
    Laendern auf der Welt erheblich ueberlegen sind. Was faktisch nicht den Tatsachen
    entsprechen kann. Edward Snowden und einige Mitarbeiter der NSA vor ihm
    betreiben demanach hoechstwahrscheinlich Desinformation im Auftrag der CIA.

    Indem bei den Menschen und Regierungen auf der Welt der Eindruck vermittelt wird
    ihre gesamte digitale Datenkommunikation werden von der NSA ueberwacht und nicht
    nur selektiv ausgewertet, aendern sich die Menschen unbewusst in ihrem Verhalten, was
    in der psychischen Wirkung einer Zensur gleichkommt.

    Die strategische Vorgehensweise durch gezielte Lancierung und Platzierung von falschen
    Tatsachen ueber das Vorhandensein nicht vorhandene technischer Kapazitaeten mit dem
    Tarninstrument des angeblichen "Geheimnisverrates" ist psychologische Kriegsfuehrung
    und damit ein Verbrechen der Agression.

    Fazit:

    Die CIA und NSA betreiben subversive Desinformation um Staerke in einem Cyberkrieg
    vorzutaeuschen. Damit sollen sowohl die Voelker auf der Welt als auch andere Regierungen
    in der Moral manipuliert und geschwaecht werden.


    Die angebliche "Totalueberwachung" seitens der NSA ist damit nicht mehr und nicht
    weniger als das uebliche Pushing und Poseing des Papiertigers USA. Die Vorgehensweise
    wird genauso erkannt werden wie der synthetisch erzeugte "Finanzkrieg" welcher ebenfalls
    mit dem Instrument der psychologischen Kriegsfuehrung als Angriffskrieg erfolgte.
    Geändert von ABAS (13.07.2013 um 12:44 Uhr)
    " Streicht die Kuechenabfaelle fuer die Aussaetzigen! Keine Gnade mehr bei Hinrichtungen!
    Und sagt Weihnachten ab! "

    (Sheriff von Nottingham)

+ Auf Thema antworten

Aktive Benutzer

Aktive Benutzer

Aktive Benutzer in diesem Thema: 1 (Registrierte Benutzer: 0, Gäste: 1)

Ähnliche Themen

  1. SPD warnt vor Kommunikation mit dem Bürger
    Von tomas im Forum Deutschland
    Antworten: 48
    Letzter Beitrag: 14.09.2011, 16:58
  2. Viren beim größten digitalen Vermarkter
    Von Freddy Krüger im Forum Computer - Handy - Internet - Multimedia
    Antworten: 27
    Letzter Beitrag: 17.05.2010, 04:36
  3. Warum gibt es Kommunikation?
    Von <-- im Forum Freie Diskussionen
    Antworten: 15
    Letzter Beitrag: 08.09.2003, 16:08

Nutzer die den Thread gelesen haben : 0

Du hast keine Berechtigung, um die Liste der Namen zu sehen.

Forumregeln

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  
nach oben