Bit wisem 2015-wieners-sitzung-13_Zusammenfassung II
BIT I WiSe 2014 | Basisinformationstechnologie I - 02: Grundlagen II
1. Basisinformationstechnologie I
Universität zu Köln. Historisch-Kulturwissenschaftliche Informationsverarbeitung
Jan G. Wieners // jan.wieners@uni-koeln.de
Wintersemester 2014/15
29. Oktober 2014 – Grundlagen II
2. Inhalte der heutigen Sitzung
Zeichencodierungen
ASCII / Extended ASCII
ISO 8859-x
UTF-8
Zahlensysteme
Hexadezimal-
Dezimal-
Binärsystem
Umwandlung vom
Dezimal- ins Hexadezimalsystem
Hexadezimal- ins Dezimalsystem
Dezimal- ins Binärsystem
Binär- ins Dezimalsystem
„Rechnen“ im Binärsystem
Addition von Binärzahlen
Multiplikation von Binärzahlen
8. Zuordnung Bitcode Zeichen: ASCII Code
ASCII-Codierung (ASCII für „American Standard
Code for Information Interchange“)
1963 als Standard verabschiedet, 1968
aktualisiert
???
Wie viele Bit stehen im ASCII Coder zur
Zeichencodierung Verfügung?
Welche Zeichen repräsentiert der ASCII Code?
ASCII vs. Extended ASCII?
9.
10. ASCII Code – Ein Praxisbeispiel
Wie lassen sich alle Zeichen der Zeichenkette
„hallowelt“
in Großbuchstaben umwandeln?
11. ASCII Code – Ein Praxisbeispiel
Wie lassen sich alle Zeichen der Zeichenkette
„hallowelt“
in Großbuchstaben umwandeln?
Algorithmus
=========
Für jedes Zeichen in der Eingabezeichenkette
„hallowelt“:
Hole den dezimalen ASCII Wert des Zeichens
Subtrahiere 32 vom entsprechenden Wert
Gebe das Zeichen (also 퐴푆퐶퐼퐼푘푙푒푖푛 − 32) aus
15. Teillösung: ASCII ISO 8859
Normenfamilie ISO 8859
8-Bit-Zeichensatz
ISO = Internationale Organisation für Normung
(International Organization for Standardization)
Spezifiziert die zusätzlich darstellbaren Zeichen;
dabei entsprechen die ersten mit sieben Bit
kodierbaren Zeichen (einschließlich führendes
Nullbit) dem ASCII Code
15 Normen, von ISO 8859-1 bis 8859-16 (Nr. 12
16. Normenfamilie ISO 8859
ISO 8859-1 Latin-1, Westeuropäisch
ISO 8859-2 Latin-2, Mitteleuropäisch
ISO 8859-3 Latin-3, Südeuropäisch
ISO 8859-4 Latin-4, Baltisch
ISO 8859-5 Kyrillisch
ISO 8859-6 Arabisch
ISO 8859-7 Griechisch
ISO 8859-8 Hebräisch
ISO 8859-9 Latin-5, Türkisch
… …
ISO 8859-16 Latin-10, Südosteuropäisch
18. Und noch ein Standard: UTF-8
UTF-8: In den 1990ern eingeführt von der ISO
UTF Implementierung von Unicode
UTF-8 ist eine Mehrbyte-Codierung. Das bedeutet:
Dass 7-Bit ASCII-Zeichen mit einem Byte codiert werden, alle
anderen verwenden zwischen 2 und 6 Bytes
Die Idee:
Häufig benutzte Zeichen werden mit einem Byte
codiert, seltenere mit mehreren Bytes – das spart
Speicherplatz.
UTF-8 codierte Dateien sind kompatibel zu 7-Bit ASCII
23. „Mit der Symbolfolge 101 ist die Dezimalzahl
Einhunderteins gemeint“
101
„Mit der Symbolfolge 101 ist die Binärzahl 101 gemeint. Der
Binärzahl 101 entspricht die Dezimalzahl 5 (Fünf)“
26. Binärdarstellung
Im Binärsystem stehen zur Codierung der Zahlen
nur die Ziffern 0 und 1 zur Verfügung.
Die Ziffern der Binärzahl stellen die Koeffizienten
der Potenzen von 2 dar:
10111 = 1*24 + 0*2³ + 1*2² + 1*21 + 1*20
= 1*16 + 1*4 + 1*2 + 1*1
= 23 im Dezimalsystem
27. Dezimaldarstellung
Die Ziffern einer Dezimalzahl stellen die
Koeffizienten von Zehnerpotenzen („Dezi“ von
griech. „déka“, zehn) dar:
Beispiele:
2351 = 2*10³ + 3*10² + 5*101 + 1*100
= 2*1000 + 3*100 + 5*10 + 1*1
= 2351
15 = 1*101 + 5*100
= 10 + 5
= 15
28. Hexadezimaldarstellung
Im Hexadezimalsystem stehen zur Codierung von Zahlen die
sechzehn (Hexa+Dezi) Ziffern 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B,
C, D, E, F zur Verfügung
Die Ziffern der Zahl im Hexadezimalsystem stellen die
Koeffizienten der Potenzen von 16 dar.
Beispiele:
109 (im Hexadezimalsystem)
=> 9*160 + 0*161 + 1*162
= 9 + 0 + 256
= 265 (im Dezimalsystem)
AFFE = A*163 +F*162 +F*161 +E*160
= 10*4096 + 15*256+15*16+14*1
= 45054
32. Umwandlung Binärsystem Dezimalsystem
Zur Umwandlung: Multiplikation der entsprechenden
Ziffern mit den Zweierpotenzen:
10111 = 1*24 + 0*2³ + 1*2² + 1*21 + 1*20
= 1*16 + 1*4 + 1*2 + 1*1
= 23
33. Übung: Binärzahl Dezimalzahl
Übungsaufgaben
1 1011 => welche Zahl im Dezimalsystem?
0 1010 => welche Zahl im Dezimalsystem?
1100 0011 => welche Zahl im Dezimalsystem?
35. Umwandlung DezimalBinärsystem
Eine Dezimalzahl lässt sich über die Division durch 2 und
Aufschreiben der Reste in eine Binärzahl umwandeln (das ist
eine Möglichkeit, häufig lässt sich das auch im Kopf lösen).
Beispiel: Die Zahl 7610 soll ins Binärsystem
umgewandelt werden
76 / 2 = 38; Rest 0
38 / 2 = 19; Rest 0
19 / 2 = 9; Rest 1
9 / 2 = 4; Rest 1
4 / 2 = 2; Rest 0
2 / 2 = 1; Rest 0
1 / 2 = 0; Rest 1
1 0 0 1 1 0 0
42. Last, but not...: Umwandlung Hexadezimalsystem Dezimalsystem
Zur Umwandlung: Multiplikation der entsprechenden
Ziffern mit den Potenzen von 16:
AFFE = A*163 +F*162 +F*161 +E*160
= 10*4096 + 15*256+15*16+14*1
= 45054
43. Umwandlung DezimalHexadezimalsystem
Eine Dezimalzahl lässt sich über die Division durch die
Basis 16 und Aufschreiben der Reste in eine
Hexadezimalzahl umwandeln.
Beispiel: Die Dezimalzahl 48267 soll ins
Hexadezimalsystem umgewandelt werden
48267 / 16 = 3016
Rest : 11 B
3016 / 16 = 188
Rest: 8
188 / 16 = 11
Rest: 12 C
11 / 16 = 0; Rest : B
0 / 16 = 0; Rest: 0
0 B C 8 B
44. Übung: Dezimalzahl Hexadezimalzahl
Übungsaufgaben
16 = Welche Hexadezimalzahl?
64 = Welche Hexadezimalzahl?
127 = Welche Hexadezimalzahl?
Nur 7 Bit des Bytes werden genutzt.
Grund: Sicherheit der Datenübertragung sicherstellen:Das erste Bit wurde auf 0 gesetzt, wenn die Anzahl der übrigen Bits gerade ist und auf 1 gesetzt, wenn die Anzahl der übrigen Bits ungerade ist:? 0 0 0 0 0 0 1 1 0 0 0 0 0 0 1
Durch verbesserte Datenübertragung: Verwendung des ersten Bits „Extended ASCII“.
Somit 256 darstellbare Zeichen im ASCII CodeZum 7-Bit ASCII Code kamen Zeichen wie „ö“, „ü“, etc. hinzu.
Unicode will das Problem des beschränkten ASCII-Zeichenvorrates lösen.
Intention: Darstellung mehrerer unterschiedlicher Sprachen mit einer Zeichencodierung
Ziel: Alle in Gebrauch befindlichen Schriftsysteme und Zeichen zu codieren.
Versionen:
Unicode codierte seine Zeichen zunächst über 16 Bit (65536 Zeichen).
Unicode 2.0 erweitert Zeichenraum auf 17 Bereiche (Planes), kann 1.114.112 Zeichen darstellen.
Wortbreite:
Gibt die Datenmenge an, die während eines Taktes gleichzeitig verarbeitet werden kann
Determiniert die Größe des maximal adressierbaren Speichers