Interface graphiquethumb|Quelques widgets typiques. En informatique, une interface graphique (en anglais GUI pour graphical user interface) ou un environnement graphique est un dispositif de dialogue homme-machine, dans lequel les objets à manipuler sont dessinés sous forme de pictogrammes à l'écran, de sorte que l'usager peut les utiliser en imitant la manipulation physique de ces objets avec un dispositif de pointage, le plus souvent une souris. Ce type d'interface a été créé en 1973 sur le Xerox Alto par les ingénieurs du Xerox PARC pour remplacer les interfaces en ligne de commande.
Session (informatique)En informatique et en télécommunication, une session est une période délimitée pendant laquelle un appareil informatique est en communication et réalise des opérations au service d'un client - un usager, un logiciel ou un autre appareil. Une session démarre lorsque l'utilisateur commence à interagir avec un programme logiciel, qu'il s'agisse d'un système d'exploitation (OS), d'une application lourde ou à travers un site internet.
Vulkan (API)Vulkan d'abord annoncé sous l'appellation OpenGL Next est une spécification proposée par le consortium Khronos Group pour la programmation graphique. Elle est mise en œuvre par plusieurs constructeurs de cartes graphiques sous forme d'une interface de programmation portant le même nom et a pour but de remplacer à terme OpenGL et ses dérivés en exploitant plus efficacement les architectures informatiques modernes.
Foreign function interfaceA foreign function interface (FFI) is a mechanism by which a program written in one programming language can call routines or make use of services written or compiled in another one. An FFI is often used in contexts where calls are made into binary dynamic-link library. The term comes from the specification for Common Lisp, which explicitly refers to the programming language feature enabling for inter-language calls as such; the term is also often used officially by the Haskell, Rust, Python, and LuaJIT (Lua) interpreter and compiler documentations.
Mythe du mégahertzLe mythe du mégahertz est une croyance selon laquelle la fréquence d'horloge permet de comparer les performances des microprocesseurs. Bien que la fréquence d'horloge soit un bon outil pour comparer les performances d'un même type de processeur, d'autres facteurs changent grandement la donne quand il s'agit de processeurs différents. Cette idée a commencé à se répandre en 1984, dans des comparaisons entre l'Apple II et l'IBM PC.