IT-LIFEブログ

主にIT系のことや時事ネタや、たまに雑記

これなら分かる!OSI参照モデルについて【初心者向け】

この記事では初心者向けにOSI参照モデルの説明をしていきます。

なるべくわかりやすく書いていきます!

ちなみにこの本を参考にして書きました。

キタミ式イラストIT塾 応用情報技術者 平成30年度 (情報処理技術者試験)

とても分かりやすい本なのでオススメです。

 

それではいきます。

 

OSI参照モデルとは

 

パソコンが他のパソコンと通信するためには通信機器が必要です。

OSI参照モデルとは、その通信をする際に必要な通信機器の機能を第1層から第7層までに分割したモデルのことです。

なぜこのようのなモデルが必要かというと、全ての端末で共通する通信のルール(規格)を定義し、それに沿った通信が行われれば端末の仕様が異なっていても問題なく通信が行えるようにしたいためです。

 

このモデル国際標準化機構(ISO)によって策定しました。

 

第1層から第7層までの具体的な中身を見ていきましょう!

 

f:id:nok-0930-ss:20180224002317p:plain

 

こんなのを一気にみせられても大変ですよね 。

それでは、各層にある各装置はどんなことをやっているのかを図を交えて説明をしていきます!

 

第1層(物理層)

第1層にはNIC、リピータ、LANケーブルなどがあります。

それでは上記の三つを紹介していきます!

 
NICについて

まずはNIC(Network Interface Card)について。

NICの役割は”データ”を”電気信号”に変換してケーブル上に流すこと、受け取ることです。

具体的には以下の図のような感じです!

 

f:id:nok-0930-ss:20180224003700p:plain

要するに、コンピュータがネットワークでやりとりしようと思ったら、欠かすことのできない部品がNICというわけです。

NICは通常、パソコンの中に入っています。

 

リピータ

次はリピータについて。

リピータは流れる電気信号を増幅します。

なぜ、増幅しなければならないかというと、以下の図のようにLANケーブルが長くなるとそこを流れる信号が歪んでしまう場合があります。

f:id:nok-0930-ss:20180224010506p:plain

そのため、受取手のパソコンさんはどんな信号が送られているのか理解することがむず開始です。そこで中間地点に信号を増幅するためのリピータを介入させます。

f:id:nok-0930-ss:20180224010610p:plain

すると、画像のように減衰する前に信号を増幅(整形)して再送出してくれるので信号の歪みを解消することができます。

 

LANケーブル

LANケーブルは、イーサネットで使用する配線用のケーブルのことで、主にコンピュータとその周辺機器を接続するためのケーブル。

                                                    f:id:nok-0930-ss:20180224011646p:plain

ちなみにイーサネットとは簡単に言えば、コンピュータネットワークの規格のひとつで、世界中のオフィスや家庭で一般的に使用されているLAN(Local Area Network)で最も使用されている技術規格です。

 

以上が、第1層(物理層)でした。

物理的にネットワークをどう繋ぐかは上記の装置を使って決めていきます。

 

第2層(データリンク層

この層は、一つのネットワーク媒体に接続され複数のコンピュータの間でデータをどのように伝送するのかの機能が提供されています。

データリンク層には、ブリッジという装置があります。

それではこの装置の説明をしていきます。

ブリッジ

ブリッジは以下の図のようなことをしています。

f:id:nok-0930-ss:20180224152812p:plain

流れてきたパケットにはMACアドレスという次の送付先を示す情報があるため、ブリッジはその情報をみて異なる送付先にパケットが流れ込まないように制御します。

ちなみに、MACアドレスIPアドレスの違いを明確に説明しとくと、IPアドレスは最終的な送付先を示していて、MACアドレスは次の送付先を示しています。

ブリッジによるパケットの交通整理を行うことによって、パケットの衝突が起きにくくなり回線の利用効率が下がることを回避できます。

 

スイッチングハブ

ブリッジを複数束ねたもの。

図で表すと以下のような感じ。

f:id:nok-0930-ss:20180224155151p:plain

 

 

 

第3層(ネットワーク層

この層は、異なるネットワーク同士をどのように中継するかの役割があります。

その中継機能を提供する装置がルータです。

ルータ

ブリッジが行う転送はあくまでもMACアドレスが確認できる範囲のみでゆうこうなので、外部のネットワーク宛への転送を行うことはできません。

外部へパケットを転送するためにはルータが必要です。

以下の図のような役割をしています。

f:id:nok-0930-ss:20180224160531p:plain

IPアドレスは"どのネットワークに属する何番目のコンピュータか"という情報なのでこれを確認することで、外部ネットワークへ送付することが可能です。

 

第4層以上

第4層以上にはゲートウェイという装置があります。

ゲートウェイを簡単に説明すると、ネットワークの翻訳家さんみたいなものです。

難しく言うと、ネットワーク双方で使っているプロトコルの差異をなくす役割をもっています。

そのようなプロトコルの差異はゲートウェイという装置を使って吸収します。

f:id:nok-0930-ss:20180224162816p:plain

例えば、携帯のメールとインターネットのメールは使用しているプロトコルが異なっているので通信できません。

そこでゲートウェイを使用すると以下のように変換することが可能なわけです。

f:id:nok-0930-ss:20180224164017p:plain

 

まとめ

今回はOSI参照モデルで使用される代表的な装置の機能を説明してきました。

次のブログでは、各層の具体的な内容やプロトコルについて説明していこうと思います。

滴滴出行とソフトバンクが日本のタクシー事業者向けサービスにおいて協業

↓プレスリリース

https://www.softbank.jp/corp/group/sbm/news/press/2018/20180209_01/

【2017】京成スカイライナーのCMの曲について!歌手は?曲名は?

こんにちは、あつかんです。

YouTubeを見ていたときに、以下の京成スカイライナーの広告が流れてきました。

 

 

その広告に流れている曲がとても素敵な曲で気になってしまったので調べて見ました。

歌手&曲名

歌手はたかはしほのかさんという方だそうです作詞もたかはしほのかさんがやっています!

f:id:nok-0930-ss:20171212163217p:plain

たかはしほのかさんはリーガルリリーというバンドでギター&ボーカルを担当しているそうです。

 

詳しいプロフィールはこちらから

www.regallily.com

 曲名は そらのむこう だそうです!

 

ちなみに、作曲家はPa’s Lam Systemさんです!

 

最後に

歌声が透き通ってて、なんども聞けちゃう曲でしたね!

これ売れると思うな〜

今後のご活躍に期待しましょう!

【Macユーザー必見】fnキーを押さずにファンクションキーを使用する方法

f:id:nok-0930-ss:20171207175736p:plain

こんにちは、あつかんです。

Macユーザーの方はファンクションキーを使用するとき、わざわざfnキーを押しながら使用していますか?

ファンクションキーを多様する人にとってはこれはわずらわしい操作ですよね。

 

そこで、今回はfnキーを押さなくてもファンクションキーを機能させる方法を紹介していこうと思います。

 

方法

まずは以下の画像のりんごマークをクリックしてください。

f:id:nok-0930-ss:20171207171634p:plain

次はシステム環境設定をクリック。

f:id:nok-0930-ss:20171207171758p:plain

こんな画面が開かれるので矢印のところをクリック

f:id:nok-0930-ss:20171207171925p:plain

 

以下の画面が現れるので、キーボードアイコンをクリック

f:id:nok-0930-ss:20171207172034p:plain

 

以下の画面の、"F1、F2などのキーを標準のファンクションキーとして使用"という欄にチェックを入れてください。

f:id:nok-0930-ss:20171207174636p:plain

 

以上です。

簡単でしたねw

 

これでfnキーを押しながらファンクションキーを押すという鬱陶しい作業から解放されます。

 

ここで、ファンクションキーに重複されている機能である音量調整ボタンや画面の明るさ調整ボタンはどうやって機能させればいいの?って疑問が発生します。

この場合は逆に、fnキーボタンを押しながらそのボタンを押すことによって解決できます。

 

お役に立てたなら幸いです。

では、あつかんでした〜

Macのエンター2回の変換が鬱陶しいと思っている方へ

f:id:nok-0930-ss:20171207173120p:plain

 

こんには、あつかんです。

この記事を読んでいる人はおそらくMacユーザーの方だと思います。

Macユーザーの方は、かなを漢字に変換する際にエンターを2回押していますか?

私は以前、2回エンターを押していました。

これってかなりめんどくさくないですか?

めんどくさいと思っているあなたへ、その解決方法を紹介していこうと思います!

 

解決方法

まずは、このりんごマークを押してください。

f:id:nok-0930-ss:20171207171634p:plain

 

すると以下の画面が現れるので、システム環境設定をクリック!!

f:id:nok-0930-ss:20171207171758p:plain

 

次はこんな画面が表れます。矢印のところをクリックしてみてください。

f:id:nok-0930-ss:20171207171925p:plain

 

そしてキーボードアイコンをクリックします。

f:id:nok-0930-ss:20171207172034p:plain

キーボードアイコンをクリックすると以下の画面が現れるので、入力ソースってボタンをクリックしてみてください。

f:id:nok-0930-ss:20171207172230p:plain

すると、以下の画面が現れます。その画面にあるWindows風の操作キーのチェック欄をチェックしてください。

f:id:nok-0930-ss:20171207172444p:plain

 

以上です。

とても簡単でしたねw

これで二回エンターを押すという鬱陶しさから解放されます!

ちなみに自動で変換されるのも鬱陶しいと思っている方は、ライブ変換のチェックを外してみてください。

私はライブ変換も鬱陶しいと思っていたので無効化しました。

 

これで今後は快適変換ライフが送れますね!!

 

ではでは、あつかんでした〜

どの席に座るかで他人の心理はわかってしまう。

f:id:nok-0930-ss:20171204211733p:plain

こんにちは、あつかんです。

今日は心理系の記事を書いていこうと思います。

皆さんは、席に座るときに、どんなことを考えて席を選んでいますか?

ほとんどの人は、そこまで意識せずに席についていると思います。

しかし、意識していなくても席の選び方ひとつで、深層心理が現れます。

人間は無意識に、相手に抱いている心理条件によって、席に座る位置が変わってくるのです。

 

自分の位置に対して相手がどこに座るかを知っておくことで、相手は私に対してどのように思っているのかなどを予測できます。

 

今回は4つ座るパターンを紹介し、それに対する心理を見ていきたいと思います。

 

パターン① 角

f:id:nok-0930-ss:20171204200005p:plain

①の席に座った人は、あなたに対してリラックスしています。気軽に話すことができ雑談に向いた位置です。相手があなたに対して親近感を持っていることが分かります。

 

パターン② 隣

f:id:nok-0930-ss:20171204195944p:plain

②の位置は、あなたと共同作業をするようなときに適した座り方です。

この位置は体の接触が比較的に起こりやすいので、接触が起こっても不快に感じないような人が座ると予想されるため、②の人は親しい間柄だといえます。

恋人などは隣に座りますね。

 

パターン③ 真正面

f:id:nok-0930-ss:20171204200304p:plain

この座り方は一般的な座り方です。

一方、対立や説得、競争などの深刻な話題の時にも真正面の席を選ぶことが多いです。

もし、親しい間柄の人が改まって②の席に座ったなら、そのような話題になるかもしれないですね。

 

パターン④ 対角線上

f:id:nok-0930-ss:20171204200612p:plain

④の位置に座った人は、あなたとは別々の作業をするような人の座り方。

話し合いには適していません。

もし、話をするときにこの席を選ばれてしまったら、あなたとは疎遠な関係であり対立を起こしているかもしれません。

 

角テーブル?丸テーブル?

角テーブルと丸テーブルでは、座る人の心理によって微妙に異なってきます。

丸テーブルは上座というもの作りずらいので、そのテーブルに座る人たちに公平感が生まれます。

みんなと仲良く議論したい人は丸テーブルを好むようです。

角テーブルは上座というもの作りやすく、リーダーシップを発揮しやすい環境です。

そのため、リーダーシップを発揮したがる人に好まれます。

 

まとめ

今回は座る位置によって自分に対する相手の心理状態を推測しました。

当たり前ですが、近ければあなたに対して親近感があり遠ければ疎遠な関係でしたね。

この物理的な距離と心理的な距離は比例しています。

逆にこの心理作用を利用することもできます。

例えば、「あの人と親しくなりたいな~」と思ったら物理的な距離を近づけ、心理的な距離を縮めるのです。

物理距離を利用して心理距離を縮めることを「ボッサードの法則」というようです。

しかし、相手にはパーソナルスペーズというものがあり、その範囲内に入ってしますと逆効果になってしまうかもしれません。

なので、パーソナルスペーズにギリギリ入らないだろうという距離を攻めましょう笑

 

相手のパーソナルスペースなんか知るか!!!!

って思いますよね笑

 

内向的は人はパーソナルスペースが広く、外交的な人はパーソナルスペーズが狭いです。

つまり、相手の性格によって、近づける物理的な距離は臨機応変に変化させましょうってことですね~。

 

今回はこちらの本を参考に書かせていただきました!

他人の心理をもっと詳しく知りたい方は読んでみて下さい!

【初心者向け】ニューラルネットワークのソフトマックス関数とは?【連載⑤】

f:id:nok-0930-ss:20171203174342p:plain

こんにちは、あつかんです。

今回はニューラルネットワークの出力層の設計について説明していこうと思います。

ゼロから作るDeep Learningという本を参考にさせていただいております。

またこの記事は連載形式ですので、下の記事を読んでから読むことおすすめします。

www.it-lifelog.com

出力層の設計

ニューラルネットワークは、分類問題と回帰問題の両方に利用できます。

分類問題というのは、データのクラス分けです。

例えば、猫の画像を見せたときにそれは猫か?犬か?を分類するような問題です。

回帰問題は、ある入力から何かしらの数値を予測するものです。

たとえば、猫の画像を見せてその画像から猫の身長や体重を予測するような問題です。

 

分類問題と回帰問題によって出力層の活性化関数の種類が変わってきます。

分類問題ならソフトマックス関数を使い、回帰問題なら前のブログで説明した恒等関数を使用します。

今回は分類問題の焦点をあてていこうと思います。

 

ソフトマックス関数について

まずは、あらたにソフトマックス関数というものが出てきたので、それについて説明します。

ソフトマックス関数の式は以下のように表わされます。

f:id:nok-0930-ss:20171203165831p:plain

kはk番目のニューロンの出力であり、nは出力層のニューロンの数です。

分子は入力信号の指数関数、分母はすべての入力信号の指数関数の和です。

図で表すと以下のようになります。

f:id:nok-0930-ss:20171203173559p:plain

式の通り、一つの出力層に対して、すべての入力が結びついていることが確認できます。

ではソフトマックス関数を使って実際に数値を使って計算してみます。

f:id:nok-0930-ss:20171203165636p:plain

の時、y1,y2,y3は以下のようになります。

f:id:nok-0930-ss:20171203170119p:plain

f:id:nok-0930-ss:20171203170216p:plain

f:id:nok-0930-ss:20171203170253p:plain

だからなに?って感じですよね笑

次の説明でその疑問を解決します笑

 

なぜソフトマックス関数なのか?

先ほどの計算結果で示したように、ソフトマックス関数の出力は0~1の実数値に落とし込むことができています。

どんな値を使っても0~1の実数値が出力されるので試してみてください。

この0~1の実数値に収めることができるというのがソフトマックス関数の重要なところです。

なぜなら、出力値を確率として解釈することができるからです。

0.1なら10%、0.25なら25%のように。

確率として解釈できるということは、例えば以下の図のようにニューラルネットワークを利用できますね(かなり強引ですが)。

f:id:nok-0930-ss:20171203171806p:plain

上図より、ニューラルネットワークに信号(画像のピクセル値)を入力した結果、猫である確率が高いと判断されたました。

つまり、確率として扱うことにより画像に写っているモノは猫であると予測できるわけですね。

猫の画像を入力して、それが猫であるって判断を行うためにはニューラルネットワークを学習させなければなりません。

それについては今後説明します。

 

まとめ

今回は出力層に使われる活性化関数の一つとしてソフトマックス関数についてまとめました。

出力層にソフトマックス関数を使うと、出力の結果を0~1の範囲に実数値として落とし込めるので、確率的な表現ができることが可能になりました。

確率的な表現ができるということは、予測ができるということなので、なにかを分類するような問題に応用できます。

しかし、なにかを分類するためにはニューラルネットワークの重みなどを適切に設定しなければ正しく分類することができません。

では、ニューラルネットワークの重みはどのようにして設定するのでしょうか?

それはデータから学習させて重みを設定させます。

ニューラルネットワークの特徴はデータを学習し、重みのパラメータを自動で決定できるという点です。

次のブログではどのようにして、データを学習するのかについて述べていこうと思います!

では!