Xfceデスクトップ環境は、デスクトップ メタファー に従ったグラフィカル ユーザー インターフェイス を提供します。 工業デザイン 分野におけるヒューマンコンピュータインタラクション において、ユーザーインターフェース (UI )は人間と機械のインタラクションが行われる空間を指します。このインタラクションの目的は、人間側から機械を効果的に操作・制御すると同時に、機械側からオペレーターの意思決定を支援する情報をフィードバックすることです。この広範なユーザーインターフェースの概念の例としては、コンピュータ オペレーティングシステム 、ハンドツール 、重機の 操作制御、プロセス 制御などのインタラクティブな側面が挙げられます。ユーザーインターフェースを作成する際に考慮すべき設計上の考慮事項は、人間工学 や心理学 といった分野に関連、あるいは関与しています。
一般的に、ユーザーインターフェース設計 の目標は、機械を操作しやすく、効率的で、楽しく(ユーザーフレンドリーで)、望ましい結果(つまり最大限のユーザビリティ )が得られるようなユーザーインターフェースを作成することです。これは通常、オペレーターが最小限の入力で望ましい出力を実現し、機械がユーザーにとって望ましくない出力を最小限に抑えることを意味します。
ユーザーインターフェースは、ヒューマンマシンインターフェース (HMI )を含む1つ以上のレイヤーで構成されます。HMIは通常、機械と物理的な入力ハード ウェア(キーボード、マウス、ゲームパッドなど)および出力ハードウェア(コンピュータモニター 、スピーカー、プリンタ など)をインターフェースします。HMIを実装したデバイスは、ヒューマンインターフェースデバイス (HID)と呼ばれます。脳と機械の間の中間ステップとして身体部分の物理的な動きを必要としないユーザーインターフェースは、電極のみを使用して入出力デバイスを一切使用しません。これらは、ブレインコンピュータインターフェース (BCI)またはブレインマシンインターフェース (BMI)と呼ばれます。
ヒューマン・マシン・インターフェースは、マン・マシン・インターフェース (MMI )とも呼ばれ、対象となる機械がコンピュータの場合はヒューマン・コンピュータ・インターフェース と呼ばれます。追加のUIレイヤーは、触覚UI(タッチ )、視覚UI(視覚)、聴覚UI( 音 )、嗅覚UI(嗅覚 )、平衡感覚UI(バランス )、味覚UI(味覚 )など、人間の感覚と相互作用する場合があります。
複合ユーザーインターフェース ( CUI ) は、2 つ以上の感覚と対話する UI です。最も一般的な CUI はグラフィカルユーザーインターフェース (GUI) で、触覚 UI とグラフィック を表示できる視覚 UI で構成されています。GUI にサウンドが追加されると、マルチメディアユーザーインターフェース(MUI) になります。CUI には、 標準 、仮想 、拡張の 3 つの大まかなカテゴリがあります。標準 CUI では、キーボード、マウス、コンピューターモニターなどの標準的なヒューマンインターフェースデバイスを使用します。CUI が現実世界を遮断して仮想現実 を作成する場合、CUI は仮想であり、仮想現実インターフェースを 使用します。CUI が現実世界を遮断せずに拡張現実 を作成する場合、CUI は拡張であり、拡張現実インターフェースを使用します。UI が人間のすべての感覚と対話する場合、 クオリア 理論にちなんで名付けられたクオリアインターフェースと呼ばれます。 CUIは、インターフェースする感覚の数によって、X感覚型仮想現実インターフェースまたはX感覚型拡張現実インターフェースに分類されることもあります。ここで、Xはインターフェースする感覚の数です。例えば、Smell-O-Visionは、 視覚、音、匂いを備えた3感覚(3S)標準CUIです。仮想現実インターフェースが 匂いと触覚とインターフェースする場合は4感覚(4S)仮想現実インターフェース、拡張現実インターフェース が匂いと触覚とインターフェースする場合は4感覚(4S)拡張現実インターフェースと呼ばれます。
概要 反応可能な 楽器、実体のあるユーザーインターフェース の例ユーザーインターフェース、またはヒューマンマシンインターフェース とは、人間と機械の相互作用を担う機械の一部です。メンブレンスイッチ、ゴム製のキーパッド、タッチスクリーンなどは、私たちが目で見て触れることができるヒューマンマシンインターフェースの物理的な部分の例です。[ 1 ]
複雑なシステムでは、ヒューマン・マシン・インターフェースは通常コンピュータ化されています。「ヒューマン・コンピュータ・インターフェース」という用語は、この種のシステムを指します。コンピューティングの文脈では、この用語は通常、 ヒューマン・コンピュータ・インタラクション に使用される物理的要素を制御するための専用ソフトウェアにも適用されます。
ヒューマン・マシン・インターフェースのエンジニアリングは、人間工学 (ヒューマンファクターズ )を考慮することで強化されます。対応する分野は、ヒューマンファクターズエンジニアリング (HFE)と、システムエンジニアリング の一部であるユーザビリティエンジニアリング (UE)です。
インターフェース設計にヒューマンファクターを取り入れるためのツールは、コンピュータグラフィックス 、オペレーティングシステム 、プログラミング言語 といったコンピュータサイエンス の知識に基づいて開発されています。現在では、ほぼすべてのコンピュータがグラフィックスを使用しているため、コンピュータ上のヒューマンマシンインターフェースは グラフィカルユーザーインターフェース( GUI)と呼ばれます。
マルチモーダルインターフェースは、 ユーザーが複数の入力様式を使って対話することを可能にする。 [ 2 ]
用語 ヒューマン・マシン・インターフェースには通常、入力と出力のための周辺ハードウェアが含まれます。また、 グラフィカル・ユーザー・インターフェース など、ソフトウェアで実装された追加コンポーネントが存在することも少なくありません。 ユーザー インターフェイスとオペレーター インターフェイスまたはヒューマン マシン インターフェイス (HMI) には違いがあります。
SF小説 では、HMIは直接神経インターフェース と表現されるものを指すことがあります。しかし、この後者の用法は、(医療用)義肢 、つまり失われた身体の一部を補う人工的な拡張部分(例えば、人工内耳 )の現実世界での応用においてますます普及しています。[ 7 ] [ 8 ]
状況によっては、コンピュータがユーザーを観察し、特定のコマンドなしにユーザーの行動に応じて反応することがあります。体の各部位を追跡する 手段が必要であり、頭の位置や視線の方向などを検出するセンサーが実験的に使用されています。これは特に 没入型インターフェース に関連しています。[ 9 ] [ 10 ]
歴史 ユーザー インターフェイスの歴史は、主なユーザー インターフェイスの種類に応じて次のフェーズに分けられます。
1945–1968: バッチインターフェースIBM 029 バッチ処理時代、コンピューティング能力は非常に不足しており、高価でした。ユーザーインターフェースは未発達で、ユーザーがコンピューターに合わせるのではなく、コンピューターがユーザーに合わせて調整する必要がありました。ユーザーインターフェースはオーバーヘッドとみなされ、ソフトウェアはオーバーヘッドを最小限に抑えながらプロセッサを最大限に活用するように設計されていました。
バッチマシンのユーザーインターフェースの入力側は、主にパンチカードや 紙テープ などの同等の媒体でした。出力側では、これらの媒体に加えてラインプリンタも利用されました。システム オペレータコンソール という限られた例外を除き、人間がバッチマシンをリアルタイムで操作することはほとんどありませんでした。
バッチマシンにジョブを送信するには、まずプログラムとそのデータセットを記述したパンチカードを用意する必要がありました。プログラムカードはコンピュータ本体ではなく、キーパンチと 呼ばれる特殊なタイプライター型の機械でパンチされていました。キーパンチは、非常に大きく、扱いにくく、故障しやすいことで悪名高かったのです。ソフトウェアインターフェースも同様に扱いにくく、非常に厳格な構文が採用されており、可能な限り小型のコンパイラやインタープリタで解析できるように設計されていました。
国勢調査のアンケートの事実を統計 に転記するために、事前に決められたコードに従ってカードに穴が開けられます。カードにパンチ穴を開けたら、ジョブキューに入れて待機する。最終的に、オペレーターはデッキをコンピュータに挿入し、場合によっては磁気テープ をマウントして別のデータセットやヘルパーソフトウェアに供給する。ジョブは最終結果、またはエラーログが添付された中止通知を含むプリントアウトを生成する。実行が成功すると、磁気テープに結果が書き込まれたり、後の計算で使用するためのデータカードが生成されたりする。
一つのジョブのターンアラウンドタイムは 、しばしば丸一日かかりました。運が良ければ数時間で済むこともありました。リアルタイムの応答はなかったからです。しかし、カードキューよりも悪い運命もありました。一部のコンピューターでは、コンソールスイッチを使ってバイナリコードでプログラムを切り替えながら入力するという、さらに面倒でエラーが発生しやすいプロセスが必要でした。初期のマシンでは、プログラムロジックを組み込むために、プラグボード と呼ばれるデバイスを使用して配線を部分的にやり直す必要がありました。
初期のバッチシステムでは、現在実行中のジョブにコンピュータ全体を割り当てていました。プログラムデッキとテープには、I/Oデバイスとの通信やその他の必要な処理を実行するために、現在で言うところのオペレーティングシステム コードが含まれていなければなりませんでした。1957年以降、バッチ時代も半ばを過ぎ、様々なグループがいわゆる「ロードアンドゴー 」システムの実験を始めました。これらのシステムでは、コンピュータに常駐するモニタープログラム が使用されていました。プログラムはモニターを呼び出してサービスを受けることができました。モニターのもう一つの機能は、送信されたジョブのエラーチェックを強化し、より早期かつインテリジェントにエラーを検出し、ユーザーにとってより有用なフィードバックを生成することでした。このように、モニターはオペレーティングシステムと明示的に設計されたユーザーインターフェースの両方への第一歩となりました。
1969年~現在: コマンドラインユーザーインターフェーステレタイプ モデル 33 ASR コマンドラインインターフェース (CLI )は、システムコンソールに接続されたバッチモニターから発展した。そのインタラクションモデルは、一連のリクエストとレスポンスのトランザクションであり、リクエストは専門用語を用いたテキストコマンドとして表現された。遅延はバッチシステムよりもはるかに低く、数日または数時間から数秒に短縮された。したがって、コマンドラインシステムでは、ユーザーは、以前の結果に関するリアルタイムまたはほぼリアルタイムのフィードバックに応じて、トランザクションの後の段階について考えを変えることができた。ソフトウェアは、以前は不可能だった方法で探索的かつインタラクティブになることができた。しかし、これらのインターフェースは、ユーザーに比較的大きな記憶 負荷をかけており、習得には多大な労力と学習時間が必要であった。[ 11 ]
初期のコマンドラインシステムは、テレプリンター とコンピュータを組み合わせたもので、人間同士の有線による情報伝達を仲介するのに効果的であることが実証された成熟技術を採用していました。テレプリンターはもともと自動電信送受信装置として発明され、1902年にまで遡る歴史を持ち、1920年には既にニュース編集室などで広く普及していました。テレプリンターの再利用においては、経済性も当然考慮されましたが、心理学と「驚き最小の法則」 も重要でした。テレプリンターは、多くのエンジニアやユーザーにとって馴染みのあるシステムとのインターフェースを提供したのです。
DEC VT100端末 1970年代半ばにビデオディスプレイ端末(VDT)が広く普及したことで、コマンドラインシステムの第2段階が到来しました。VDTは、プリンタヘッドやキャリッジの動きよりも速く画面上の蛍光ドットに文字を投影できるため、遅延をさらに短縮しました。インクや紙といった消耗品をコストから排除することで、インタラクティブプログラミングに対する保守的な抵抗を和らげる効果もありました。また、1950年代後半から60年代にかけての初代テレビ世代にとって、VDTは1940年代のコンピュータの先駆者たちにとってテレプリンターがもたらした以上に、象徴的で快適な存在でした。
同様に重要なのは、アクセス可能な画面(迅速かつ可逆的に変更可能な2次元テキスト表示)の存在です。これにより、ソフトウェア設計者はテキストではなくビジュアルと呼べるインターフェースを容易に導入できるようになりました。この種のアプリケーションの先駆的な例は、コンピュータゲームとテキストエディタでした。rogue (6) や vi (1) といった初期のアプリケーションの近縁種は、今 もなお Unix の伝統の一部として生き続けています。
1985年: SAAユーザーインターフェースまたはテキストベースのユーザーインターフェース 1985年、 Microsoft Windows をはじめとするグラフィカル・ユーザー・インターフェースの 登場に伴い、IBMはシステム・アプリケーション・アーキテクチャ (SAA)標準と呼ばれるものを作成しました。これには、共通ユーザー・アクセス(CUA)の派生規格が含まれています。CUAは、今日のWindowsで広く普及し、使用されている標準規格の基盤を築き上げました。そして、近年の MS-DOS やWindowsコンソールアプリケーションのほとんども、この標準規格を採用しています。
この定義では、プルダウンメニューシステムは画面上部に、ステータスバーは画面下部に配置され、ショートカットキーは共通機能すべてに共通であるべきとされていました(例えば、F2キーで開くはSAA標準に準拠するすべてのアプリケーションで機能します)。これにより、ユーザーがアプリケーションを習得する速度が大幅に向上し、急速に普及して業界標準となりました。[ 12 ]
1968年~現在: グラフィカルユーザーインターフェースAMX Desk は基本的なWIMP GUI を作成しました。 ライノタイプ WYSIWYG 2000、1989
インターフェースデザイン インターフェース設計で使用される主な方法には、プロトタイピングとシミュレーションが含まれます。
典型的なヒューマンマシンインターフェース設計は、インタラクション仕様、インターフェースソフトウェア仕様、プロトタイピングの段階から構成されます。
インタラクション仕様の一般的なプラクティスには、ユーザー中心設計 、ペルソナ 、アクティビティ指向設計、シナリオベース設計、回復力設計などがあります。 インターフェース ソフトウェア仕様の一般的なプラクティスには、ユース ケースと、 インタラクション プロトコル による制約の適用(使用エラーを回避するため) が含まれます。 プロトタイピングの一般的な方法は、インターフェース要素 (コントロール、装飾など) のライブラリに基づいています。
品質の原則 一般的にユーザーフレンドリー、効率的、直感的などとみなされるインターフェースは、大まかに言って、1つまたは複数の特定の特性によって特徴づけられます。例として、そのような特性を網羅的ではない形で以下に挙げます。
明確さ: インターフェースは、言語、フロー、階層、視覚要素のメタファーを通じてすべてを明確にすることで、曖昧さを回避します。 簡潔さ : [ 16 ] しかし皮肉なことに、情報を過度に明確化すると、例えば、一度に表示される項目の全部ではないにしても大部分にラベルを付けるなど、ユーザーが特定の項目を識別するために何らかの視覚的な指標を必要とするかどうかに関係なく、どのような情報でもわかりにくくなる可能性があり、ほとんどの通常の状況では、おそらくそうなるでしょう。親しみやすさ: [ 17 ] 初めてインターフェースを使う人でも、特定の要素は馴染み深い場合があります。現実世界のメタファーを使って意味を伝えることができます。 応答性 :[ 18 ] 優れたインターフェースは、動作が遅く感じられてはいけません。つまり、インターフェースは、何が起こっているのか、ユーザーの入力が正常に処理されているのかどうかについて、ユーザーに適切なフィードバックを提供する必要があります。一貫性: [ 19 ] アプリケーション全体でインターフェースの一貫性を保つことは、ユーザーが使用パターンを認識できるようにするため重要です。 美観 : インターフェースがその機能を果たすために魅力的である必要はありませんが、見た目を良くすることで、ユーザーがアプリケーションを使用する時間がより楽しくなります。ユーザーの満足度が高まるのは良いことだけです。効率 : 時間はお金であり、優れたインターフェースはショートカットと優れたデザインを通じてユーザーの生産性を向上させる必要があります。許し : 優れたインターフェースは、ユーザーの間違いを罰するのではなく、間違いを修正する手段を提供する必要があります。
驚き最小の原則 驚き最小の原則 (POLA)は、あらゆる種類のインターフェース設計における一般的な原則です。これは、人間は一度に一つのものにしか注意を向けることができないという考えに基づいており、[ 20 ] 目新しさは最小限に抑えるべきだという結論に至ります。
インターフェースが継続的に使用される場合、ユーザーは必然的にそのインターフェースの使用習慣 を身につけます。したがって、デザイナーの役割は、ユーザーが良好な習慣を身に付けられるようにすることです。デザイナーが他のインターフェースの経験があれば、同様に習慣を身につけ、ユーザーがインターフェースとどのようにインタラクションするかについて無意識のうちに想定してしまうことがよくあります。[ 20 ] [ 21 ]
設計基準のモデル:ユーザーエクスペリエンスハニカム ユーザーエクスペリエンスデザイン ハニカム[ 22 ] はピーター・モーヴィル [ 23 ] によって設計されたGoogle のピーター・モーヴィルは、2004年にユーザーインターフェースデザインの業務を率いていた際に、ユーザーエクスペリエンス・ハニカム・フレームワークを設計しました。このフレームワークはユーザーインターフェースデザインの指針として開発され、その後10年間にわたり、多くのWeb開発を学ぶ学生の指針となりました。[ 23 ]
使いやすさ:システムの設計は使いやすくシンプルですか?アプリケーションは使い慣れていて、簡単に使えるものでなければなりません。[ 23 ] [ 22 ] 有用性:アプリケーションはニーズを満たしているか?企業の製品やサービスは有用である必要があります。[ 22 ] 望ましい点:アプリケーションのデザインは洗練されていて、要点が明確ですか?システムの美観は魅力的で、翻訳しやすいものでなければなりません。[ 22 ] 見つけやすさ:ユーザーは探している情報をすぐに見つけることができますか?情報は見つけやすく、簡単にナビゲートできる必要があります。ユーザーが製品や情報を探す手間がかからないようにする必要があります。[ 22 ] アクセシビリティ :アプリケーションはフレームワークを崩すことなく拡大テキストをサポートしていますか?アプリケーションは障害のある人にもアクセス可能でなければなりません。[ 22 ] 信頼性:アプリケーションは信頼できるセキュリティと企業情報を提供していますか?アプリケーションは透明性、安全性、誠実性を備えていなければなりません。[ 22 ] 価値:エンドユーザーは価値があると考えていますか?6つの基準すべてが満たされている場合、エンドユーザーはアプリケーションに価値と信頼を見出します。[ 22 ]
種類 HP シリーズ 100 HP-150 タッチスクリーン 注意深いユーザー インターフェイスは、 ユーザーを中断するタイミング、警告の種類、ユーザーに表示されるメッセージの詳細レベルを決定して、ユーザーの注意を管理します。 バッチインターフェース は非対話型のユーザーインターフェースであり、ユーザーはバッチ処理の 前にバッチジョブ の詳細をすべて指定し、すべての処理が完了した時点で出力を受け取ります。処理開始後は、コンピューターはそれ以上の入力を求めません。コマンドラインインターフェース (CLI)は、ユーザーにコンピュータのキーボードからコマンド文字列 を入力してもらい、コンピュータのモニターにテキストを出力することで応答を求めるものです。プログラマーやシステム管理者、エンジニアリングや科学研究の現場、そして高度な技術を持つパーソナルコンピュータユーザーによって使用されています。会話型インターフェースは、 ユーザーがグラフィック要素の代わりに、平易な英語のテキスト(例:テキストメッセージ、チャットボット)や音声コマンドでコンピュータを操作することを可能にします。これらのインターフェースは、多くの場合、人間同士の会話を模倣しています。 [ 24 ] 会話型インターフェース エージェントは、 コンピュータ インターフェースをアニメーション化された人物、ロボット、またはその他のキャラクター (Microsoft の Clippy the paperclip など) の形で擬人化し、対話を会話形式で表現しようとします。交差ベースのインターフェース は、ポイントするのではなく境界を越えることが主なタスクとなるグラフィカル ユーザー インターフェースです。直接操作インターフェースは 、少なくとも大まかに物理世界に対応するアクションを使用して、ユーザーが提示されたオブジェクトを操作できるようにするユーザー インターフェースの一般的なクラスです。ジェスチャー インターフェイス は、手のジェスチャー 、またはコンピューターのマウスやスタイラスで描いた マウス ジェスチャー の形式で入力を受け入れるグラフィカル ユーザー インターフェイスです。グラフィカルユーザーインターフェース (GUI)は、コンピュータのキーボードやマウスなどのデバイスからの入力を受け付け、コンピュータのモニター上に明確な グラフィック 出力。 [ 25 ] GUIの設計では、少なくとも2つの異なる原則が広く使用されています。オブジェクト指向ユーザーインターフェース (OOUI)とアプリケーション 指向インターフェースです。 [ 26 ] ハードウェアインターフェース とは、トースターから車のダッシュボード、飛行機のコックピットまで、現実世界の製品に見られる物理的な空間インターフェースです。一般的には、ノブ、ボタン、スライダー、スイッチ、タッチスクリーンなどが組み合わされています。ホログラフィック ユーザー インターフェイスは、 電子機器や電気機械機器の触覚コントロールとなるホログラフィック画像を再現し、そのホログラフィック画像に指を通すことで、電子機器や電気機械機器への入力を提供します。ホログラフィック画像は空中に自由に浮遊し、波源によって検出され、触覚による操作はありません。インテリジェント ユーザー インターフェイス は、ユーザー、ドメイン、タスク、談話、メディア (グラフィックス、自然言語、ジェスチャーなど) のモデルを表現、推論、および操作することで、人間と機械の相互作用の効率、有効性、自然さを向上させることを目的とした人間と機械のインターフェイスです。モーショントラッキング インターフェースは ユーザーの体の動きをモニターし、それをコマンドに変換します。その技術の一部はかつてAppleによって特許取得されていました。 [ 27 ] マルチスクリーンインターフェースは 、複数のディスプレイを使用することで、より柔軟なインタラクションを実現します。これは、業務用アーケードゲームだけでなく、近年では携帯型ゲーム機市場においても、コンピュータゲームのインタラクションによく採用されています。自然言語インターフェース は検索エンジンやウェブページで使用されています。ユーザーは質問を入力し、回答を待ちます。非コマンド型ユーザーインターフェースは 、ユーザーが明示的にコマンドを入力する必要なく、ユーザーを観察してニーズや意図を推測します。[ 28 ] オブジェクト指向ユーザー インターフェイス (OOUI)は、オブジェクト指向プログラミング メタファーに基づいており、ユーザーがシミュレートされたオブジェクトとそのプロパティを操作 できるようにします。権限駆動型のユーザーインターフェースは、 ユーザーの権限レベルに応じてメニューオプションや機能を表示または非表示にします。このシステムは、ユーザーが利用できない項目を削除することでユーザーエクスペリエンスを向上させることを目的としています。利用できない機能が表示されると、ユーザーは不満を感じる可能性があります。また、権限のないユーザーから機能項目を隠すことで、セキュリティも強化されます。再帰的ユーザーインターフェース とは、ユーザーがユーザーインターフェースのみを介してシステム全体を制御・再定義するインターフェースです。例えば、コマンド動詞を変更するなどです。通常、これは非常にリッチなグラフィックユーザーインターフェースでのみ可能です。検索インターフェース は、サイトの検索ボックスの表示方法と、検索結果の視覚的な表現です。 タッチと物理的な環境またはその要素をより重視する、具体的なユーザー インターフェイス。 タスク重視のインターフェースは 、ファイルではなくタスクを対話の主な単位にすることで、デスクトップメタファー の情報過多の 問題に対処するユーザー インターフェースですテキストベースのユーザーインターフェース (TUI)は、テキストを介して対話するユーザーインターフェースです。TUIには、コマンドラインインターフェース とテキストベースのWIMP 環境が含まれます。タッチスクリーン は、指やスタイラスペン でタッチして入力できるディスプレイです。モバイル デバイス や、様々な、産業プロセスや機械、セルフサービス機などで利用が拡大しています。タッチユーザーインターフェースは 、タッチパッド またはタッチスクリーンディスプレイを入出力デバイスとして兼用するグラフィカルユーザーインターフェースです。触覚 フィードバック方式によって、他の出力形式を補完または代替します。コンピュータシミュレータ など音声ユーザーインターフェースは 、入力を受け付け、音声プロンプトを生成して出力を提供します。ユーザー入力は、キーやボタンを押すか、インターフェースに音声で応答することで行われます。ゼロ入力インターフェースは、 入力ダイアログでユーザーに問い合わせる代わりに、一連のセンサーから入力を取得します。[ 29 ] ズーム ユーザー インターフェイスは 、情報オブジェクトがさまざまなスケールと詳細レベルで表現され、ユーザーが表示領域のスケールを変更して詳細を表示できるグラフィカル ユーザー インターフェイスです。
ギャラリー ドイツの 高速列車
インターシティエクスプレス の運転室に設置された最新のHMI
トイレのHMI(日本)
オーディオミキシング用のHMI
押しボタン式砂糖産業機械のHMI
CNCマシン用の少し新しいHMI
緊急スイッチ/パニックスイッチ
DMD 5620端末
参照
参考文献 ^ 「Eurotherm Parker SSDリンクハードウェアL5392 | Automation Industrial」 l5392.com . 2024年 1月11日 閲覧 。^ Cohen, Philip R. (1992). 「マルチモーダルインターフェースにおける自然言語の役割」. 第5回ACMユーザーインターフェースソフトウェア技術シンポジウム - UIST '92 議事録 . pp. 143– 149. doi : 10.1145/142621.142641 . ISBN 0897915496 . S2CID 9010570 .^ 「図書館のユーザーエクスペリエンス:公益に貢献するユーザーエクスペリエンスマガジン」 uxpamagazine.org 2017 年5月7日. 2022年 3月23日 閲覧 。 ^ Griffin, Ben; Baston, Laurel. 「インターフェース」 (プレゼンテーション) : 5. 2014年7月14日時点のオリジナルより アーカイブ。 2014年 6月7日 閲覧 。 機械システム、車両、または産業設備のユーザーインターフェースは、ヒューマンマシンインターフェース(HMI)と呼ばれることもあります。 ^ a b c d 「ユーザーインターフェースデザインと人間工学」 (PDF) 。 コースCit 811。 ナイジェリア国立オープン大学:科学技術学部:19。 2014年7月14日時点のオリジナルから アーカイブ (PDF) 。 2014年 6月7日 閲覧 。 実際には、MMIという略語は今でも頻繁に使用されていますが、MMIは現在では別の意味を持つと主張する人もいます。 ^ 「序論」. 経営学における最近の進歩 . [Sl]: Wseas. 2010. p. 190. ISBN 978-960-474-161-8 他に使用される用語は、オペレータ・インタフェース・コンソール(OIC)およびオペレータ・インタフェース・ターミナル(OIT)である 。^ Cipriani, Christian; Segil, Jacob; Birdwell, Jay; Weir, Richard (2014). 「標的外因性筋における細線筋内電極を用いた義手の器用な制御」 . IEEE Transactions on Neural Systems and Rehabilitation Engineering . 22 (4): 828–36 . Bibcode : 2014ITNSR..22..828C . doi : 10.1109/TNSRE.2014.2301234 . ISSN 1534-4320 . PMC 4501393. PMID 24760929. 現在のヒューマンマシンインターフェース(HMI)では、神経の共活性化 が 存在し、それが大きなEMGレベルを生成し、意図しない動きを引き起こします。 ^ Citi, Luca (2009). 「ロボットハンド制御のための神経インターフェースの開発」 (PDF) . Scuola Superiore Sant'Anna, Pisa, Italy: IMT Institute for Advanced Studies Lucca: 5 . 2014年 6月7日 閲覧 。 ^ ジョーダン、ジョエル。 「没入型仮想環境における存在感の調査のための視線方向分析」 (哲学博士号取得のための論文) 。ロンドン大学コンピュータサイエンス学部:5。 2014年7月14日時点のオリジナルから アーカイブ (PDF) 。 2014年 6月7日 閲覧 。 本論文の目的は、没入型仮想環境(IVE)において、ある状況下では視線方向が存在感を検知する手段として利用できる可能性があるという考え方を検証することである。 ^ Ravi (2009年8月). 「HMIの導入」 . オリジナルより2014年7月14日 アーカイブ . 2014年 6月7日 閲覧. 状況によっては、コンピュータがユーザーを観察し、特定のコマンドなしにユーザーの行動に応じて反応することがあります。身体の各部位を追跡する手段が必要であり、頭部の位置や視線の方向などを検出するセンサーが実験的に使用されています。これは特に没入型インターフェースに関連しています。 ^ 「HMIガイド」 。 2014年6月20日時点のオリジナルより アーカイブ。 ^ Richard, Stéphane. 「テキストユーザーインターフェース開発シリーズ パート1 – TUIの基礎」 . 2014年11月16日時点のオリジナルより アーカイブ。 2014年 6月13日 閲覧 。 ^ a b c McCown, Frank. 「グラフィカルユーザーインターフェース(GUI)の歴史」 ハーディング大学。 2014年11月8日時点のオリジナルより アーカイブ。 ^ 「Xerox PARC訪問」 . web.stanford.edu . 2019年 2月8日 閲覧 。 ^ "apple-history.com / グラフィカルユーザーインターフェース (GUI)" . apple-history.com . 2019年 2月8日 閲覧 。 ^ Raymond, Eric Steven (2003). "11" . The Art of Unix Programming . Thyrsus Enterprises. 2014年10月20日時点のオリジナルより アーカイブ。 2014年 6月13日 閲覧 。 ^ CA D'H Gough、R. Green、M. Billinghurst. 「ユーザーインターフェースにおけるユーザーの習熟度を考慮する」 (PDF) 。 2014年 6月13日 閲覧 。 ^ Sweet, David (2001年10月). 「9 – レスポンシブなユーザーインターフェースの構築」 . KDE 2.0 開発 . Sams Publishing. 2013年9月23日時点のオリジナルより アーカイブ。 2014年 6月13日 閲覧 。 ^ John W. Satzinger、Lorne Olfman (1998年3月). 「エンドユーザーアプリケーション間のユーザーインターフェースの一貫性:メンタルモデルへの影響」 . Journal of Management Information Systems . 情報技術による仮想職場とテレワークの管理. 14 (4). ニューヨーク州アーモンク: 167–193 . doi : 10.1080/07421222.1998.11518190 . ^ a b ラスキン、ジェフ (2000). ヒューマン・インタフェース:インタラクティブ・システムの設計における新たな方向性 (第1刷). マサチューセッツ州レディング [ua]: アディソン・ウェスリー. ISBN 0-201-37937-6 。^ Udell, John (2003年5月9日). 「インターフェースは習慣を形成する」 . Infoworld . 2017年4月4日時点のオリジナルより アーカイブ。 2017年 4月3日 閲覧 。 ^ a b c d e f g h 「ユーザーインターフェースとユーザーエクスペリエンスデザイン | Oryzo | 中小企業向けUI/UX」 Oryzo . 2019年 11月19日 閲覧 。 ^ a b c Wesolko, Dane (2016年10月27日). 「Peter Morvilleのユーザーエクスペリエンスハニカム」 . Medium . 2019年 11月19日 閲覧 。 ^ Errett, Joshua. 「アプリ疲れが募る中、トロントのエンジニアたちはチャットボットに移行」 . CBC . CBC/Radio-Canada. 2016年6月22日時点のオリジナルより アーカイブ。 2016年 7月4日 閲覧 。 ^ Martinez, Wendy L. (2011年2月23日). 「グラフィカルユーザーインターフェース:グラフィカルユーザーインターフェース」 . Wiley Interdisciplinary Reviews: Computational Statistics . 3 (2): 119– 133. doi : 10.1002/wics.150 . S2CID 60467930 . ^ Lamb, Gordana (2001). 「オブジェクト指向テクニックによるUI設計プロセスの改善」 . Visual Basic Developer 誌 . 2013年8月14日時点の オリジナルよりアーカイブ 。表1. UI設計における従来のアプリケーション指向アプローチとオブジェクト指向アプローチの違い。 ^ appleinsider.com 2009年6月19日アーカイブ Wayback Machine ^ Jakob Nielsen (1993年4月). 「非コマンドユーザインタフェース」 . Communications of the ACM . 36 (4). ACM Press: 83–99 . doi : 10.1145/255950.153582 . S2CID 7684922. 2006年11月10日時点のオリジナルより アーカイブ 。 ^ Sharon, Taly, Henry Lieberman, Ted Selker. 「ウェブ閲覧におけるグループ体験を活用するゼロ入力インターフェース」 (2017年9月8日アーカイブ、 Wayback Machine )第8回国際インテリジェントユーザーインターフェース会議議事録。ACM、2003年。
外部リンク