コンピュータの基礎(1章)

 
 

講師
 
 

エディフィストラーニング(株)

 
 

高橋 栄司
 
 
 
 

 
 

 
 


 
 

ICTとは


 
 

コンピュータの概要

 

コンピュータとは

コンピュータとは、「電子回路を使って、与えられた方法・手順に従って、複雑な計算(処理)を自動的に行う機器」のことをいいます。日本語では「電子計算機」とも呼ばれます。

電子回路は半導体などの電子部品で構成され、プリント基板に固定された電子部品同士が電気信号をやり取りすることにより、信号を増幅したり、演算処理を行ったりすることができます。
 
 

 
 

 
 

 
 

何を計算してるの??

例えば動画は

人間が理解できないコード 計算して 動画として表示

画像を見てる時も、音楽を聴く時も人間が意識していないところでコンピュータが計算している

Work:コンピュータとは

個人またはグループで演習を行います。身の回りにある「コンピュータ」を考えてみましょう。また、それらはどのような方法・手順によって動作するかを考え、グループのメンバーに対してできるだけ詳しく説明しましょう。
① 各自で身の回りの「コンピュータ」を1つ考える。
② 「コンピュータ」を使用するための手順を、順を追って考え、メモ欄に記述する。(できるだけ詳細に!)
③ グループで各自の考えを発表し合い、発表者を決める。
[メモ]
 
 

 
 

 
 

 
 

 
 

コンピュータの種類

 
 


 
 

アナログとデジタル

機械が情報を扱う際の表現方法として、アナログとデジタルの2種類があります。
アナログ(analog)とは、連続量を物理量で表現することをいいます。また、デジタル(digital)とは、連続量を一定の値に区切ってとびとびに(離散的に)表現することをいいます。

時計を例にとって考えてみましょう。アナログ時計は時間を針で表すことにより、時間を表現することができます。そのため、私たちは時計の針の位置を読み取ることで時間を知ることができます。これに対して、デジタル時計では、時間を「時、分、秒」といった単位で区切って表現します。

Work:アナログとデジタル

個人またはグループで演習を行います。「アナログ」、「デジタル」それぞれの例を時計以外でいくつか考えてみましょう。
① 各自で「アナログ」「デジタル」の例を1つずつ考える。(余裕があれば複数考えてみましょう!)
② 「アナログ」を表現する「もの」(時計でいうところの「針」にあたるもの)を考え、メモ欄に記述する。
③ 「デジタル」で区切る単位(大きさ、長さ)を考え、メモ欄に記述する。
④ グループで各自の考えを発表し合い、発表者を決める。
[メモ]

 
 

 
 

 
 

 
 

アナログ信号とデジタル信号

時間や温度、速度、圧力など、アナログで表現される物理量(目で見ることができる量)は、もともと連続的に変化する量(連続量)です。そのため、物理量を、完全かつ正確に数字で表現することは難しく、無限に小さな区切りを必要とします。一方、デジタルでは、とびとびの大きさ(時・分・秒)や長さ(24時・60分・60秒)の値があらかじめ決められていて、この値の大きさや長さだけで表現する決まりとなっています。

基本的に、機械やコンピュータなどがこのような物理量を扱うときには、連続量を電気的に変換し、電圧などの量を測定します。この時間的に測定可能な量のことを信号といいます。さらに、アナログで測定する量をアナログ信号、デジタルで測定する量をデジタル信号といいます。

 アナログ信号の特徴

 情報量が多い

アナログ信号は連続的に変化する信号です。これを測定してグラフにすると、緩やかな曲線(正弦波)になります。情報が隙間なく連続した波形として表現できるため、情報量が多く、フィルムカメラで撮影した写真や、レコード盤で再生された音声などでは、画像や音声がきめ細やかに再現されます。

 データが劣化しやすい

アナログ信号は、媒体(メディア)の物理的な摩耗や消耗の影響を受けることによってデータが劣化しやすい特徴があります。また、コンピュータ内部や他のコンピュータ間での伝送時にノイズの影響を受けると、波形が変化してしまいます。そのため、受信側で本来とは異なる形の信号を受け取る可能性があり、情報が正しく伝わらない可能性があります。

 デジタル信号の特徴

 情報量が少ない

デジタル信号は一定の時間単位でとびとびに(離散的に)変化する信号です。これを測定してグラフにすると、矩形波(方形波)と呼ばれる波形になります。離散的に信号を測定するだけで済むため、測定量はアナログ信号に比べて少なくなります。

 データの劣化に強い

デジタル信号はデータの劣化に強いという大きな特徴があります。デジタル信号は、電圧の異なる「0」または「1」の2種類のデータしか持たないため、データが破損した場合でも劣化した信号を復元することが可能です。

特定の電圧をしきい値として設定し、しきい値の電圧より大きいか小さいかにより、「0」または「1」を表す電圧に戻すことにより復元します。

コンピュータが扱うデータ

コンピュータはデジタルで演算処理します。値(数値)がはっきりと決まるデジタル信号の方が扱いやすいためです。

なお、アナログ信号を扱うことも可能ですが、そのままの形では演算処理ができず、一旦デジタル信号に変換して処理する必要があります。この変換処理をアナログ・デジタル変換(A/D変換)といいます。また、デジタル処理を行った情報をアナログ信号で出力する必要がある場合は、デジタル信号からアナログ信号への変換処理が必要です。これを、デジタル・アナログ変換(D/A変換)といいます。

 
 

2進数と基数変換

基数とは

私たちが普段使っている数字について考えてみましょう。0からはじめて1ずつ数字を足していくとき、9までは1桁で表すことができます。数字は0から9までの10個の値を1桁で表現することができます。

桁が上がる、または下がる基準となる値を基数といいます。私たちが普段使っている数字は10を基準として桁が変化します。そのため、基数は10となり、10で桁が変化することから10進数といいます。

 
 

 

これと同様に、基数がnである値は、nを基準に桁が変化するため、n進数といいます。

ちなみに、コンピュータはビットを最小単位として扱います。ビットは「0」と「1」の2種類の情報を持つため、基数は2となります。コンピュータでは主に2進数を取り扱いますが、16進数を扱うこともあります。16進数では1桁で16個の値を持つことができます。


 

私たちが使用する10進数では、16進数における10個目以降の値は1桁で表現できません。「0」~「9」までは10進数と同様に数えていき、「9」以降は、A(10)、B(11)、C(12)、D(13)、
E(14)、F(15)と6つのアルファベットで表記します。

 
 


 

[参考]数値の桁

数値の桁は仮数、基数、重みの3つの要素から構成されます。

 仮数
仮数とは、数値の各桁で使用される数をいいます。
10進数の「123」という数の各桁の仮数は、右から数えて1桁目が「3」、2桁目が「2」、3桁目が「1」となります。

 基数
表示する数字が同じであっても、基数が異なると、全く異なる値となります。
例えば、「100」個のデータがあるとすると、10進数であれば100個のデータを表すことになります。しかし、2進数の「100」は10進数では「4」となり、4個のデータを表すこととなり、表示上同じ値であっても実際は異なる数値表現となります。

そのため、複数の基数表記が混在する場合は、一般的に基数を明示するために数値を括弧で囲み、基数を右下に表記します。10進数の「100」は(100)10、2進数の「100」は(100)2と表記します。

 重み
重みとは、桁数を表すための数をいいます。重みは0から始まります。つまり、1桁目の重みは「0」、2桁目の重みは「1」、3桁目の重みは「2」となります。

 
 

基数変換

基数変換とは、ある基数で表される数値を、別の基数で表現し直すことです。
例えば2進数の「100」は、10進数では「4」となります。これを基数表記で表すと、以下のようになります。
(100)2 = (4)10

コンピュータの世界では、2進数、8進数、10進数、16進数を相互変換する場面が多く見られます。よく使われる基数変換の方法を確認しましょう。

 2進数と10進数の変換

2進数から10進数へ変換するには、変換する2進数の各桁の重みを利用して計算します。ここでは、2進数の(11000000)2を10進数に変換する場合の手順を確認しましょう。

1. 変換元となる2進数と各桁の重みが対応するように記述します。
2. 各桁の重みを計算します。
3. 2進数で「1」となっている桁のみ、重み計算の値を反映します。
4. 3.で反映した値の合計を計算します。

2進数 1 1 0 0 0 0 0 0
重み 27 26 25 24 23 22 21 20
重み計算 128 64 32 16 8 4 2 1
重み反映 128 64 0 0 0 0 0 0

上記の例では、2進数で「1」となっている桁は、27と26の桁だけなので、これらを足し合わせて、128+64=192となります。この計算から、(11000000)2 = (192)10となります。

進数変換(2進数を扱うカンドコロ~2進数の位~)

 
 

 
 

 
 

 
 


 
 
 
 

 
 

 
 

 
 

 
 
 
 
 
 
 
 

 10進数と2進数の変換

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 


 
 

10進数から2進数へ変換するには、変換する10進数を2でこれ以上割れなくなるまで除算します。
ここでは、10進数の(168)10を2進数に変換する場合の手順を確認しましょう。

1. 変換元となる10進数を変換する基数(この場合は2)で除算する。
2. 除算の際に、商を下に、余りを右にメモしておく。

(余りが0のときも記述しておくこと)
3. 1.および2.の手順をこれ以上割ることができなくなるまで繰り返す。

4. 「余り」にメモした値を下から順に並べる。

上記の手順より、(168)10 = (10101000)2となります。

 2進数と16進数の変換

2進数と16進数の変換では、24 = 16であることから、2進数の4桁分が16進数の1桁となります。つまり、2進数を4桁ごとに区切って、それぞれの区切りを対応する16進数に変換する方法が一般的です。
 
 

 
 
 
 

 
 

 
 

 
 


 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 
 

 2進数と8進数の変換

2進数と8進数の変換は、基本的に2進数と16進数の変換と同じ考え方です。23 = 8であることから、2進数の3桁分が8進数の1桁となります。そのため、2進数を3桁ごとに区切って、それぞれの区切りを対応する8進数に変換します。

2進数 001 010 011 100 101 110 111
8進数 1 2 3 4 5 6 7

 
 
 

演習:基数変換
以下の数値を、[ ]で指定された基数に変換してください。(⑪はチャレンジ問題)

① (11100011)2 [10進数]

② (10101010)2 [10進数]

③ (11111111)2 [10進数]

④ (128)10 [2進数]

⑤ (224)10 [2進数]

⑥ (80)10 [2進数]

⑦ (000001001000000100111001)2 [16進数]

⑧ (001E8F)16 [2進数]

⑨ (110000)2 [8進数]

⑩ (7020)8 [2進数]

⑪ (F48139)16 [8進数]

 
 

 
 

 
 

データの単位

ビットとバイト

コンピュータは、文字や画像、音声、映像といったあらゆる情報を「0」と「1」の2進数の組み合わせで表現します。この「0」と「1」の2通りの値が情報量の最小単位となり、これをビット(bit:b)といいます。表現できる情報量を増やすには、ビットの桁数(2進数の桁数)を増やすことによって対応します。
例えば、4通りのデータを表現するには、2桁のビットが必要(22=4)です(「00」「01」「10」「11」の4通り)。

また、コンピュータが効率よくデータを扱えるように、バイト(byte:B)という単位を使用することがあります。8ビットで1バイトとなります。そのため、1バイトで28通り(256通り)の情報量を扱うことができます。

[参考]文字コード
コンピュータが画面などに利用する文字は、それぞれの文字に「文字コード」というバイト表現が割り当てられています。文字コードにはいくつかの種類があり、表現する文字によって使い分けています。

 1バイト文字と2バイト文字

アルファベット(大文字・小文字)や数字、記号など、1バイト(8ビット = 28 = 256通り)で表現できる文字のことを、1バイト文字といいます。また、日本語で使用する漢字をはじめ、各国の言語で使用される文字を含めて、2バイト(16ビット = 216 = 65536通り)で表現できる文字を2バイト文字といいます。
コンピュータでは、半角文字を1バイト文字、全角文字を2バイト文字で表現します。

 ASCII

ASCII(アスキー:American Standard Code for Information Interchange)は、1963年に策定されたコンピュータでよく利用される英語やラテン文字を中心とした7ビットの2進数(0~127)で表現する文字コードです。合計128通りの制御文字、大小ラテン文字や数字、記号を文字コードと関連付けています。

現在では、ASCIIコードをベースとして、制御信号などを加えた1バイト文字として利用されています。

 

表 1 ASCIIコード(記号・数字・文字のみ、16進コード)

 
 

 Shift JIS
Shift JIS(シフトジス)は、1982年に策定された日本語を含むさまざまな文字を含めた文字コードの1つです。米Microsoft社がCP932というコード名でMS-DOSやWindowsに実装したことから広く普及しました。

 
 

 Unicode
Unicode(ユニコード)は世界で使用される文字の集合体(文字集合)です。文字集合とは、コンピュータで表現する文字の範囲を定義したものです。Unicodeはこれまで国やベンダで独自に利用されてきた文字コードを統合することを目的に開発されました。

文字集合では、個々の文字に対して文字集合における位置が決められています。これをコードポイントといいます。実際に文字を表現するためには、コードポイントを数値に変換する必要があります。これを符号化形式といいます。Unicode用の符号化形式として、UTF-8、UTF-16、UTF-32などがあります。

データの補助単位

コンピュータの処理能力が向上し、処理できるデータ量が増えてくると、ビットやバイトだけで大きな値や小さな値を表現するには桁数が大きくなりすぎ、煩雑になります。そこで、一般的には以下のような補助単位をつけて表現します。
補助単位 倍数 10のべき乗
k(キロ) 1,000 103
M(メガ) 1,000,000 106
G(ギガ) 1,000,000,000 109
T(テラ) 1,000,000,000,000 1012
P(ペタ) 1,000,000,000,000,000 1015
E(エクサ) 1,000,000,000,000,000,000 1018
表 2 大きな値を表す補助単位

補助単位 倍数 10のべき乗
m(ミリ) 1 / 1,000 10-3
μ(マイクロ) 1 / 1,000,000 10-6
n(ナノ) 1 / 1,000,000,000 10-9
p(ピコ) 1 / 1,000,000,000,000 10-12
表 3 小さな値を表す補助単位

[参考]コンピュータにおける補助単位
コンピュータで使用されるデータ容量などを、補助単位を用いて表現するとき、「1キロバイト」は103=1,000バイトではなく、実際は1,024バイトとなります。

これはコンピュータの世界では10進数ではなく、2進数を使用するためです。国際単位系(SI)で定められているSI接頭辞(前ページ参照)ではなく、慣習的に「2進接頭辞」が利用されることが多いためです。そこで、2進接頭辞では10の3乗(103=1,000)に最も近似した2の10乗(210=1,024)に置き換えて表記します。

このことから、いわゆる「1キロバイト」は、2進接頭辞では「1kB」ではなく、「1KB」と表記し、異なる補助単位を使い分けています。ただし、通信速度はSI接頭辞で表記しています(例:64kbps)。

このような表記ゆれの混乱を避けるために、1998年に国際標準化機関である国際電気標準会議(IEC)が、2進接頭辞であることを明確にするために、SI接頭辞に「i」を付加する表記法を承認しています(1KB = 1KiB(キビバイト))が、残念ながら普及していません。

SI接頭辞の乗数 2進接頭辞の乗数
キロ(kilo) 1KB = 103B = 1,000B 1KiB(キビバイト) = 210B = 1,024B
メガ(mega) 1MB = 106B = 1,000,000B 1MiB(メビバイト)= 220B = 1,048,576B
ギガ(giga) 1GB = 109B = 1,000,000,000B 1GiB(ギビバイト) = 230B = 1,073,741,824B
テラ(tera) 1TB = 1012B = 1,000,000,000,000B 1TiB(テビバイト) = 240B = 1,099,511,627,776B

 
 

コンピュータの構成要素

コンピュータの構成

コンピュータは複数の装置から構成され、さまざまな処理を行っています。その構成要素は、ハードウェアソフトウェアの2つに分けることができます。


 

 

コンピュータはハードとソフトで動いている

 
 

私たちが目で見ることができる物理的な装置のことをハードウェアといいます。キーボード、マウス、ディスプレイ(モニタ)、CD/DVDドライブなどは、すべてハードウェアです。

実際にコンピュータが演算処理を行うには、処理するための命令を記述したプログラムが必要です。通常複数のプログラムが関連することにより、特定の処理ができるようになっています。この一連のプログラム群のことをソフトウェアといいます。

ソフトウェアは、その役割に応じて大きくシステムソフトウェアアプリケーションに分類できます。また、システムソフトウェアは利用用途によって、オペレーティングシステム(OS:Operating System)、データベースなどのミドルウェア、デバイスドライバに分類できます。

-IT基礎

© 2021 スタートダッシュ