Medidas de formas, coeficiente de asimetría y coeficiente de curtosis.pptx
1er Trabajo
1. Introducción Como es sabido nuestro mundo arribo a la era del cocimiento, en la cual todos debemos estar al tanto de lo que ocurre a nuestro alrededor, sobre todo en este campo tan amplio como lo es la informática, ya que nos arriesgamos a una muerte intelectual sino lo sabemos. El manejo de los términos básicos y mas importantes nos facilitan el entendimiento de la tecnología ya que a diario vivimos esta realidad; el uso de tecnicismos que debemos conocer. Este trabajo investigativo contiene 25 términos que , nos ayudaran a entender mejor lo que son términos informáticos que ya no son algo oculto para nadie sino que día a día a medida que la tecnología avanza todos debemos poseer estos conocimiento que nos ayudaran a lograr nuestras metas- ¿Qué es software? Se le llama software a todos los elementos impalpables e intangibles del computador, es decir, el conjunto de programas y procedimientos necesarios para hacer posible la realización de una tarea específica facilitando la interacción con los componentes físicos y el resto de aplicaciones. Diferencia entre software ¿Qué es un lenguaje de maquina? Un lenguaje de máquina es aquel con el que trabaja el microprocesador; para reaccionar y efectuar la operación que se desea, necesita de una secuencia de señales eléctricas almacenadas como
unos
y
ceros
en las posiciones de la memoria. Una y solo una secuencia de señales concreta, realiza una determinada operación. ¿Qué es un lenguaje ensamblador? Son programas que procesan los enunciados del programa origen en lenguaje ensamblador y los traducen en archivos en lenguaje máquina que son ejecutados por un microprocesador o un microcontrolador, permiten que los programas origen se escriban y se editen en una computadora para generar un código ejecutable en otra computadora. Su importancia reside en que se trabaja directamente con el microprocesador, además posee la ventaja de que en él se puede realizar cualquier tipo de programas que en los lenguajes de alto nivel no lo pueden realizar. ¿Qué es un lenguaje de programación? Un lenguaje de programación es una herramienta que nos permiten crear programas y software. Entre los lenguajes de programación más conocidos están: Delphi, Visual Basic, Pascal, Java, etc. Dichos lenguajes facilitan la tarea de programación, ya que disponen de formas adecuadas que permiten ser leídas y escritas por personas, a su vez resultan independientes del modelo de computador a utilizar y se representan en forma simbólica y en manera de un texto que puedan ser leídos por una persona. Herramientas de programación Las herramientas de programación son las que nos permiten realizar aplicaciones, programas, utilitarios, rutinas y sistemas para que el hardware del computador funcione. Existe una gran variedad de herramientas de programación, tanto para analistas expertos como para analistas inexpertos. Las dos herramientas de programación más utilizadas comúnmente para diseñar algoritmos son: diagramas de flujo y pseudocódigos. Lenguaje orientado a objeto Es un estilo de programación en el que un programa se contempla como un conjunto de objetos limitados que, a su vez, son colecciones independientes de estructuras de datos y rutinas que interactúan con otros objetos. Esto permite hacer los programas y módulos más fáciles de escribir, mantener y reutilizar. ¿Qué es encapsulación? Se le conoce comúnmente como
ocultación de la información
. Cada objeto está aislado del exterior, es un módulo natural. El aislamiento protege a las propiedades de un objeto contra su alteración solamente métodos internos del objeto pueden acceder a su estado, esto asegura que otros objetos no pueden cambiar el estado interno de un objeto de manera inesperada, eliminando efectos secundarios e interacciones inesperadas. ¿Qué es análisis de diseño orientado a objeto? Para el desarrollo de software orientado a objetos no basta usar un lenguaje orientado a objetos. También se necesitará realizar un análisis y diseño orientado a objetos. El modelamiento visual es la clave para realizar el análisis OO. Desde los inicios del desarrollo de software OO han existido diferentes metodologías para hacer esto del modelamiento, pero sin lugar a duda, el Lenguaje de Modelamiento Unificado (UML) puso fin a la guerra de metodologías. Según los mismos diseñadores del lenguaje UML, éste tiene como fin modelar cualquier tipo de sistemas (no solamente de software) usando los conceptos de la orientación a objetos. Y además, este lenguaje debe ser entendible para los humanos y máquinas. Actualmente en la industria del desarrollo de software tenemos al UML como un estándar para el modelamiento de sistemas OO. El UML consta de todos los elementos y diagramas que permiten modelar los sistemas en base al paradigma orientado a objetos. Los modelos orientados a objetos cuando se construyen en forma correcta, son fáciles de comunicar, cambiar, expandir, validar y verificar. ¿Qué es interface o interfase? Zona de contacto entre dos componentes de hardware, dos programas distintos, o entre usuario y programa. Forma en la que el ordenador establece la comunicación con el usuario, actualmente casi todas son de modo
gráfico
donde se nos presentan en forma de gráficos o iconos, los elementos o acciones que podemos realizar con el ordenador, antiguamente por ejemplo con MS-DOS la interface era de
línea de comandos
, donde el operador escribía el nombre del comando (dir, copy, format, etc...) para que el ordenador ejecutara esa orden. ¿Qué es interfaz del usuario? Es el conjunto de comandos, menús, ventanas, teclado, ratón y algunos sonidos que la computadora hace, en fin todos aquellos canales a través de los cuales el usuario se comunica con el programa. El interfaz de usurario representa la interacción entre el usuario y la computadora, facilitando la comunicación entre dos sistemas de diferente naturaleza, típicamente el ser humano y una máquina como el computador. La definición de interfaz en sí misma es un tanto arbitraria, aunque esto depende de la naturaleza de la tarea que se tiene enfrente. ¿Qué es lenguaje SQL? SQL es un lenguaje de de consulta estructurado para acceder y manipular bases de datos y manejo de consultas. Surgió de un proyecto de IBM en el que investigaba el acceso a bases de datos relacionales En la actualidad este lenguaje es sumamente necesario y demandado para poder trabajar y manejar datos .El objetivo principal de SQL es la realización de consultas y cálculos con los datos de una o varias tablas ¿Qué es ABI? En computación, un ABI (application binary interface - interfaz binaria de aplicación) describe la interfaz de bajo nivel entre una aplicación y el sistema operativo, entre una aplicación y sus bibliotecas, o entre partes componentes de una aplicación. Un ABI es distinto de una API (interfaz de programación de aplicaciones) en que un API define la interfaz entre el código fuente y bibliotecas, por esto ese mismo código fuente compilará en cualquier sistema que soporte esa API, mientras que un ABI permite que un código objeto compilado funcione sin cambios sobre cualquier sistema usando un ABI compatible. ¿Qué es polimorfismo? Es una característica aportada por la programación orientada a objeto. Se refiere a los diferentes comportamientos asociados a objetos diferentes que pueden tener en común el mismo nombre, al llamarlos se utilizara el comportamiento correspondiente al objeto, diferenciándolas únicamente en los parámetros de entrada ¿Qué es tiempo de desarrollo? La creciente importancia del tiempo de desarrollo de nuevos productos como factor de ventaja competitiva ha motivado que se hayan realizado numerosos estudios centrados en analizar la importancia, efectos y determinantes de dicho tiempo de desarrollo. En función del número de etapas del proceso de desarrollo que engloban aparecen diferentes conceptos o medidas del ciclo de desarrollo. Así, lo que generalmente se denomina tiempo de desarrollo hace referencia al lapso de tiempo que transcurre desde la fase de diseño detallado hasta la fase de introducción del producto. El tiempo de desarrollo del proyecto es indefinido, puede mantenerse durante el período que se considere necesario, la ventaja que tiene es que se pueden involucrar distintas comunidades donantes y receptoras, el objetivo inicial sería lograr la capacitación de los mediadores en los aspectos técnicos necesarios para llegar a una instalación de computadores con software Libre. ¿Qué es OLTP? OLTP es la sigla en inglés de Procesamiento de Transacciones En Línea (OnLine Transaction Processing) es un tipo de sistemas que facilitan y administran aplicaciones transaccionales, usualmente para entrada de datos y recuperación y procesamiento de transacciones (gestor transaccional). Los paquetes de software para OLTP se basan en la arquitectura cliente-servidor ya que suelen ser utilizados por empresas con una red informática distribuida. El término puede parecer ambiguo, ya que puede entenderse
transacción
en el contexto de las
transacciones computacionales
o de las
transacciones en bases de datos
. También podría entenderse en términos de transacciones de negocios o comerciales. OLTP también se ha utilizado para referirse a la transformación en la que el sistema responde de inmediato a las peticiones del usuario. Un cajero automático de un banco es un ejemplo de una aplicación de procesamiento de transacciones comerciales. La tecnología OLTP se utiliza en innumerables aplicaciones, como en bancas electrónicas, procesamiento de pedidos, comercio electrónico, supermercados o industria. ¿Qué es un protocolo? Se le llama protocolo a un conjunto de normas y/o procedimientos para la transmisión de datos que ha de ser observado por los dos extremos de un proceso comunicacional Estos protocolos
gobiernan
formatos, modos de acceso, secuencias temporales, etc. Conjunto de reglas que definen el intercambio de datos entre computadoras. Cada protocolo se encarga de una forma específica de intercambio. ¿Qué es lógica? Disciplina que estudia los principios formales del conocimiento humano, es decir, las formas y las leyes más generales del pensamiento humano considerado puramente en sí mismo, sin referencia a los objetos. Los problemas principales de la lógica son las doctrinas del concepto, del juicio, del silogismo y del método. En informática se define como una secuencia de operaciones realizadas por el hardware o por el software. La lógica del hardware son los circuitos y chips que realizan las operaciones de control de la computadora. La lógica del software o lógica del programa es la secuencia de instrucciones en un programa ¿Qué es lógica difusa? También llamada borrosa, fue introducida sobre 1965, sus orígenes se remontan hasta 2,500 años. Ya Aristóteles consideraba que existían ciertos grados de veracidad y falsedad y Platón había trabajado con grados de pertenencia. La lógica difusa, o más bien, las lógicas difusas son básicamente lógicas multivaluadas que amplifican los enunciados de las lógicas clásicas. Las clásicas imponen a sus enunciados únicamente los valores falso o verdadero y de esta manera han modelado satisfactoriamente una gran parte del razonamiento
natural
. Pero el razonamiento humano utiliza valores de verdad que no tienen porque ser necesariamente
tan deterministas
. Por medio de la lógica difusa pueden formularse matemáticamente nociones como
un poco caliente
o
muy frío
, de forma que sean procesadas por computadoras y cuantificar expresiones humanas vagas, tales como
muy alto
o
luz brillante
. Pudiéndose, de esta forma, o más bien, intentándose aplicar la forma de pensar del ser humano a la programación de computadores, sensores, chips, etc. Esta lógica permite cuantificar las descripciones imprecisas que se usan en el lenguaje y las transiciones graduales en los electrodomésticos como
ir de agua sucia
a
agua limpia
en una lavadora, pudiéndose así ajustar los ciclos de lavado a través de sensores. La habilidad de la lógica difusa para procesar valores parciales de verdad ha sido de gran ayuda para la ingeniería. Las lógicas difusas crean aproximaciones matemáticas en la resolución de ciertos tipos de problemas, produciendo resultados exactos a partir de datos imprecisos, siendo por ello, especialmente útiles en aplicaciones de tipo electrónico e informático. ¿Quién es George Boole? (Lincoln, Reino Unido, 1815 - Ballintemple, actual Irlanda, 1864) Matemático británico. Procedía de una familia venida a menos y tuvo que desestimar la idea de convertirse en monje al verse obligado a mantener a sus padres. A los dieciséis años enseñaba matemática en un colegio privado y más tarde fundó uno propio. A los veinticuatro años, tras la publicación de su primer escrito, pudo ingresar en Cambridge, pero desestimó la oferta, de nuevo a causa de sus deberes respecto a su familia. En 1849 le nombraron profesor de matemáticas del Queen’s College, en Cork, donde permaneció el resto de su vida. El gran descubrimiento de Boole fue aplicar una serie de símbolos a operaciones lógicas y hacer que estos símbolos y operaciones –por elección cuidadosa– tuvieran la misma estructura lógica que el álgebra convencional. En el álgebra de Boole, los símbolos podían manipularse según reglas fijas que producirían resultados lógicos. En 1854 publicó Investigación sobre las leyes del pensamiento, libro que trataba por completo de la lógica simbólica y su álgebra. La influencia de esta lógica matemática sobre las matemáticas modernas tendría una evolución lenta: si en un primer momento no parecía más que un intrincado juego de palabras, más adelante se vio que era de lo más útil, y hasta completamente indispensable para conseguir la matemática lógica. ¿Quién es Norbet Wiener? Nació en Columbia, Misouri el 26 de noviembre de 1894, (EE.UU), fue un niño prodigio y a los 11 años ingresó en la universidad; estudió en las universidades de Cornell, Cambrigde, Göttingen y Harvard, en esta última obtuvo su doctorado en matemáticas con 19 años. Durante la Segunda Guerra Mundial, Wiener trabajó para su gobierno en proyectos relacionados con la defensa antiaérea. Fue cuando se dio cuenta de la necesidad de mejorar las computadoras que había en aquella época, se encaminó hacia la comunicación de información y para ello en el desarrollo de los sistemas de redes. Tras la guerra Wiener continuó contribuyendo con nuevas ideas en diversos campos, incluyendo la teoría de la predicción matemática y la teoría cuántica (debatiendo con físicos como Niels Bohr y Albert Einstein). En 1942, durante un congreso en Nueva York, conoció al científico Rosenblueth y empezó a investigar acerca de los robots y sistemas automáticos, sentando así los fundamentos de una nueva ciencia: la cibernética, vocablo adoptado por Wiener en 1947, y que procede del griego
kybernetes
y que significa piloto. En 1948 publicó su obra
Cibernética: control y comunicación en el animal y en la máquina
, en donde desarrolla toda la teoría de la cibernética. Fue profesor de matemáticas en el Instituto Tecnológico de Massachusetts (MIT) desde 1932 hasta 1960, también impartió cursos por numerosas universidades del mundo (México, India,...). Poco antes de morir en 1964 recibió la Medalla Nacional de EE.UU en ciencia de manos del presidente Lindon B. Johnson. Existe un premio que lleva su nombre y se entrega desde 1987 por la CPSR (Computer Profesional for Social Responsibility) anualmente a aquellas personas que se dedican a difundir e incrementar el uso de la nuevas tecnologías. Algebra booleana La herramienta fundamental para el análisis y diseño de circuitos digitales es el Álgebra Booleana. Esta álgebra es un conjunto de reglas matemáticas (similares en algunos aspectos al álgebra convencional), pero que tienen la virtud de corresponder al comportamiento de circuitos basados en dispositivos de conmutación (interruptores, relevadores, transistores, etc). El Álgebra de Boole, fue presentada originalmente por el inglés George Boole, en el año de 1854 en su artículo
An Investigation of the Laws of Thoght ...
, sin embargo, las primeras aplicaciones a circuitos de conmutación fueron desarrolladas por Claude Shannon en su tesis doctoral
Análisis simbólico de los circuitos de conmutación y relés
hasta 1938. A continuación se presentan los postulados fundamentales del álgebra de Boole. Álgebra de Boole aplicada a la informática Se dice que una variable tiene valor booleano cuando, en general, la variable contiene un 0 lógico o un 1 lógico. Esto, en la mayoría de los lenguajes de programación, se traduce en false (falso) o true (verdadero), respectivamente. Una variable puede no ser de tipo booleano, y guardar valores que, en principio, no son booleanos; ya que, globalmente, los compiladores trabajan con esos otros valores, numéricos normalmente aunque también algunos permiten cambios desde, incluso, caracteres, finalizando en valor booleano. .. El 0 lógico El valor booleano de negación suele ser representado como false, aunque también permite y equivale al valor natural, entero y decimal (exacto) 0, así como la cadena
false
, e incluso la cadena
0
. El 1 lógico En cambio, el resto de valores apuntan al valor booleano de afirmación, representado normalmente como true, ya que, por definición, el valor 1 se tiene cuando no es 0. Cualquier número distinto de cero se comporta como un 1 lógico, y lo mismo sucede con casi cualquier cadena (menos la
false
, en caso de ser ésta la correspondiente al 0 lógico). ¿Qué es lenguaje de alto nivel? Lenguaje en el que las instrucciones enviadas para que la PC ejecute ciertas órdenes son similares al lenguaje humano. Los programas escritos en lenguaje de alto nivel no son entendibles directamente por la máquina, por lo que es necesario el uso de un intérprete que traduzca el lenguaje de alto nivel a un lenguaje de bajo nivel que el sistema pueda entender. Normalmente el lenguaje de alto nivel es fácil de aprender porque están formados por elementos de lenguajes naturales del ser humano. ¿Qué es lenguaje de bajo nivel? Se conoce como de bajo nivel a los lenguajes que están muy cercanos al hardware del ordenador y para lo cual necesario conocer a fondo la arquitectura de la máquina para la que se va a programar. Para solucionar las dificultades que presentaban los lenguajes de bajo nivel surgió el lenguaje ensamblador, dicho lenguaje consiste en asignar una abreviatura a cada instrucción en binario, de forma que sea más fácil recordarla y más difícil equivocarse. ¿Qué es un Octet? En computación, un octet u octeto es una agrupación de ocho bits. Octet , with the only exception noted below, always refers to an entity having exactly eight bits.Octeto, con la única excepción se señala más adelante, se refiere siempre a una entidad que tenga exactamente ocho bits. As such, it is often used where the term byte might be ambiguous. Como tal, se usa a menudo cuando el plazo de bytes puede ser ambigua. For that reason, computer networking standards almost exclusively use octet . Por ese motivo, las redes de computadoras casi exclusivamente las normas de uso octeto. It is prominently used in Requests for Comments (RFCs) published by the Internet Engineering Task Force . Es utilizado en forma prominente solicitudes de comentarios (RFC) publicado por la Internet Engineering Task Force. The earliest example is RFC 635 from 1974. Conclusión La nueva era nos ha impulsado a querer conocer mas y mas cada día, espero que con este trabajo investigativo, el lector pueda aprender los términos necesarios para poder entender la tecnología que nos envuelve en el diario vivir. El conocimiento no pesa, por eso exhorto a cada persona adentrarse cada día a este maravilloso mundo que es la informática, ya que a través de ella podremos manejarnos mejor en nuestro entorno. Bibliografía Enciclopedia Temática Alfa Nauta, Tomo de Computación, Págs. 194, 215 http://www.dma.eui.upm.es/historia_informatica/Doc/personajes.htm http://proomar.tripod.com/objetos.html.htm http://es.wikipedia.org/wiki/Portada Pequeño Larousse. Versión multimedia 2008