Passend zur Ifa sind die Deutschen in Kauflaune. Dieses Jahr setzt die Messe auf immer schlauere Geräte.
Digitalisierung & KI
Unklare Zuständigkeiten, Formulare und Beamtendeutsch machen besonders Flüchtlingen zu schaffen. In Berlin entwickeln Syrer jetzt eine App im Kampf gegen die Bürokratie.
Die Software „KrimPro“ soll Einbrüchen vorhersagen und verhindern. In Berlin soll das Programm zu Beginn der dunklen Jahreszeit eingesetzt werden.
Berlin kann von Gründern und Zuwanderern profitieren, so eine Studie des Deutschen Instituts für Wirtschaftsforschung. Allerdings muss dringend mehr investiert werden - vor allem in Schulen.
Bis E-Learning selbstverständlich zum Uni-Alltag gehört, ist es noch ein weiter Weg: Für nur elf Prozent der Hochschulen hat die Digitalisierung einen sehr hohen Stellenwert.
Die Märkte digitalisieren sich rasant. Darauf will die Bundesregierung nun mit einer Anpassung des Wettbewerbsgesetzes reagieren. Auch die "Wurstlücke" wird geschlossen.
Die Digitalisierung bietet Entwicklungsländern viele Chancen auf eine neue Form der Teilhabe, wie eine Podiumsdiskussion zur "Welt im Wandel" ergab.
Die deutschen Unis setzen auf soziale Medien - gut so! Die wahren digitalen Herausforderungen liegen aber ganz woanders. Ein Kommentar.
Hardware, Software, Frustware: Obwohl 50 Millionen Euro ausgegeben wurden, gibt es die zentrale Schülerdatenbank noch immer nicht. Aber im Juli tut sich was.
Elektronischer Chauffeur für jedermann: Ein Ausflug auf der A9 mit dem Fahrroboter „Jack“ von Audi.
Geisteswissenschaften und Informatik rücken weltweit enger zusammen. Auch in Berlin gibt es schon enge Netzwerke, aber Studiengänge und Professuren fehlen noch.
Nachholbedarf bei Big Data, Migranten fehlen, Frauen holen auf: Der neue Hochschul-Bildungs-Report zeichnet aus Unternehmersicht ein durchwachsenes Bild von der Leistungsfähigkeit der deutschen Unis.
In Berlin befasst sich der MINT-Gipfel mit der „digitalen Spaltung“ der Gesellschaft. Angela Merkel fürchtet, selbst Schwellenländer könnten Deutschland bei der Digitalisierung überholen.
Wegen einer Grundsanierung bleibt das Hauptkunstwerk des Pergamonmuseums bis 2019 geschlossen. Dafür ist nun der berühmte Altar als 3D-Modell auf der Webseite des Museums zu sehen.
Am 12. Mai 1941 stellte Konrad Zuse in Berlin-Kreuzberg den ersten funktionsfähigen, frei programmierbaren Computer "Z3" vor. Er markiert den Aufbruch in das digitale Zeitalter.
Vom Rechenknecht zum Wegweiser – in Berlin, wo das Computerzeitalter begann, blicken die Experten nach vorn. Eine Erkenntnis: In der Wissenschaft leiten Rechner jetzt wieder eine neue Ära ein.
Es geht doch: Union und SPD haben sich im zähen Streit um ein neues Telemediengesetz geeinigt: Wer ein offenes Wlan-Netz betreibt, haftet nicht länger für das Fehlverhalten der Nutzer.
Die Leistung moderner Supercomputer nimmt stetig zu - und damit die Probleme für die Entwickler. Zum Beispiel die Frage: Wohin mit der Abwärme?
75 Jahre nach der Vorstellung der legendären Z3: Was sich seitdem getan hat und was noch kommen könnte.
Aus einer Fülle unsortierter Daten Zusammenhänge herauslesen - so lernen Maschinen heute. Spezielle Algorithmen wie die Kernmethoden, die von Müller, Smola und Schölkopf entwickelt wurden, spielen dabei eine wichtige Rolle.
Mühsam war es, Transistoren und Widerstände auf Platinen zu montieren. Kilby und Noyce erfanden den integrierten Schaltkreis, in dem die Bauelemente "in einem Block" hergestellt wurden.
Eniac war der erste rein elektronische Universalrechner. Gebaut wurde er von John Mauchly und John Presper Eckert im Auftrag der US-Army.
Computergrafik macht Daten erst ansehnlich - die Unterhaltungsbranche ist ohne sie kaum noch denkbar. Die Grundlagen schufen unter anderem Ivan Sutherland und James Clark.
Fingerabdruck statt Passwort: Anil K. Jain hat die biometrische Erkennung maßgeblich vorangebracht - und warnt regelmäßig vor den Gefahren.
Adele Goldberg sah bereits in den Siebzigern viele Entwicklungen voraus. Widerwillig berichtete sie Steve Jobs davon, der wohl manche Anregung mitnahm.
Digitalisierung heißt vor allem: gewaltige Datenmengen müssen organisiert werden. Michael Stonebraker hat maßgeblich dazu beigetragen, Datenbanken für Computer zu etablieren.
Mit der Dichtefunktionaltheorie (DFT) schufen Kohn und Sham eine Methode, um das Bindungsverhalten von Atomen zu simulieren. Das hilft bei der Entwicklung neuer Materialien und Medikamente.
Page und Brin entwickelten die erfolgreiche Suchmaschine Google. Heute führen sie einen Konzern, der fast alle webbasierten Anwendungen bietet, die man braucht. Nächstes Ziel: autonome Fahrzeuge.
Maurice Wilkes baute mit seinem Team den ersten praktisch nutzbaren Computer mit gespeichertem Programm: EDSAC.
Robert Tarjan hat Algorithmen entwickelt, die unter anderem bei der digitalen Vermittlung von Telefongesprächen über das Internet genutzt werden.
Ob in Firmennetzwerken oder bei Online-Spielen - verteilte Systeme setzen auf die Kraft vieler Rechner. Das ist elegant wie auch komplex. Nancy Lynch hat entscheidend zu einem besseren Verständnis dieser komplizierten Netze beigetragen.
Mark Zuckerbergs Netzwerk Facebook wurde in kürzester Zeit zum Sinnbild für das digitale Leben - mit Millionen Fans und Kritikern.
Ein Computer für jedermann - das war sein Traum. Als Mitbegründer von Apple verhalf Steve Wozniak dieser Vision, wahr zu werden.
Die Deutsche Bank hat bei der Digitalisierung aufgeholt und will an die Spitze. Bis 2020 sollen dafür 750 Millionen Euro investiert werden
Mit so genannten Chat-Bots will Facebook die Kommunikation zwischen Kunden und Unternehmen automatisieren. Werden Callcenter jetzt überflüssig?
Die "Geforce" ist das Flagschiff des Grafikkartenherstellers Nvidia - gegründet von Jen-Hsun Huang. Grafikchips sind nicht nur bei Gamern beliebt, sondern auch in Wissenschaft und Entwicklung, etwa bei selbstfahrenden Autos.
Computergrafik hat nicht nur die Unterhaltungsbranche revolutioniert. Sie kann auch in der Medizin helfen. Nadia Magnenat-Thalmann ist eine Pionierin auf diesem Gebiet.
Rivest, Shamir und Adleman entwickelten den RSA-Algorithmus, um Daten zu verschlüsseln. Das funktioniert sehr gut - solange die Quantencomputer noch nicht so weit sind.
Kleine und mittelständische Unternehmen tun sich schwer mit der Digitalisierung. In Berlin sollen sie nun mit einem neuen Förderprogramm unterstützt werden.
Herbert A. Simon war vieles: Sozialwissenschaftler, Psychologe, Wirtschaftsnobelpreisträger - und Pionier auf dem Forschungsgebiet der Künstlichen Intelligenz.