Archive for 2013
Trabajo de Informatica
PRESENTACIÓN
NOMBRE Y APELLIDO: Yodel Antonio Camacho Paulino
NUMERO: 03
CURSO: 4toº A
MATERIA: Informática
TEMA: Microprocesador, tarjetas de audio y vídeo, base de datos, diferencia entre Intel y AMD.
PROFESOR: Ing. Abrahán Severino
FECHA: 01/05/2013
Vía digital a través del blog…
MICROPROCESADOR
El microprocesador (o simplemente procesador) es el circuito integrado central y más complejo de un sistema informático; a modo de ilustración, se le suele llamar por analogía el «cerebro» de un computador. Es un circuito integrado conformado por millones de componentes electrónicos. Constituye la unidad central de procesamiento(CPU) de un PC catalogado como microcomputador.
Es el encargado de ejecutar los programas, desde el sistema operativo hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones aritméticas y lógicas simples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.
Esta unidad central de procesamiento está constituida, esencialmente, por registros, una unidad de control, una unidad aritmético lógica (ALU) y una unidad de cálculo en coma flotante(conocida antiguamente como «co-procesador mat29emático»).
El microprocesador está conectado generalmente mediante un zócalo específico de la placa base de la computadora; normalmente para su correcto y estable funcionamiento, se le incorpora un sistema de refrigeraciónque consta de un disipador de calor fabricado en algún material de alta conductividad térmica, como cobre oaluminio, y de uno o más ventiladores que eliminan el exceso del calor absorbido por el disipador.
Hasta los primeros años de la década de 1970 los diferentes componentes electrónicos que formaban un procesador no podían ser un único circuito integrado, era necesario utilizar dos o tres "chips" para hacer una CPU (un era el "ALU" - Arithmetical Logic Unit, el otro la " control Unit", el otro el " Register Bank", etc..). En 1971 la compañía Intel consiguió por primera vez poner todos los transistores que constituían un procesador sobre un único circuito integrado, el"4004 "', nacía el microprocesador.
Procesadores con 8 Y 12 núcleos en 2010 (AMD)
Un paso incluso más allá de los actuales procesadores quad-core, y podría darlo AMD: procesadores de 8 y 12 núcleos que podrían estar preparados para lanzarse al mercado en el año 2010.
Los nombres en clave de estos desarrollos son Sao Paolo y Magny-Cours, para los
procesadores de 8 y 12 núcleos respectivamente. Según la información oficial, ambas CPUs utilizarían una arquitectura de 45 nanómetros con un nuevo socket, el G34, que vendría a ser una actualización del actual Socket F utilizado en los microprocesadores Opteron destinados a estaciones de trabajo profesionales y servidores.
TARJETA DE SONIDO
Una tarjeta de sonido o placa de sonido es una tarjeta de expansión para computadoras que permite la salida de audiocontrolada por un programa informático llamado controlador (en inglés driver). El uso típico de las tarjetas de sonido consiste en hacer, mediante un programa que actúa de mezclador, que las aplicaciones multimedia del componente de audio suenen y puedan ser gestionadas. Estas aplicaciones incluyen composición de audio y en conjunción con la tarjeta de videoconferencia también puede hacerse una edición de vídeo, presentaciones multimedia y entretenimiento (videojuegos). Algunos equipos (como los personales) tienen la tarjeta ya integrada, mientras que otros requieren tarjetas de expansión. También hay equipos que por su uso como por ejemplo servidores) no requieren de dicha función.
FUNCION DE LA TARJETA
La tarjeta de audio cumple la función de proporcionar la interfase auditiva al usuario por medio de altoparlantes o bocinas al igual que integra audio externo por medio de micrófono o fuentes externas en algunos casos.
EVOLUCION
Un buen modo es representarlo con una secuencia de partes del track tan famoso de Monkey Island Mientras va evolucionando el sonido xD increíble, recomiendo verlo, a mí me ha impresionado y encima aprendo. Para mayor información buscar videos sobre Monkey Island.
TARJETA DE VIDEO O GRAFICA
Una tarjeta gráfica, tarjeta de vídeo, placa de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla, es una tarjeta de expansión para una computadora u ordenador, encargada de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor. Las tarjetas gráficas más comunes son las disponibles para las computadoras compatibles con la IBM PC, debido a la enorme popularidad de éstas, pero otras arquitecturas también hacen uso de este tipo de dispositivos.
Es habitual que se utilice el mismo término tanto a las habituales tarjetas dedicadas y separadas como a las GPUintegradas en la placa base. Algunas tarjetas gráficas han ofrecido funcionalidades añadidas como captura de vídeo, sintonización de TV, decodificación MPEG-21 y MPEG-4 o incluso conectores Firewire, de ratón, lápiz ópticoo joystick.
Las tarjetas gráficas no son dominio exclusivo de los PC; contaron o cuentan con ellas dispositivos como losCommodore Amiga (conectadas mediante las ranuras Zorro II y Zorro III), Apple II, Apple Macintosh, Spectravideo SVI-328, equipos MSX y, por supuesto, en las videoconsolas modernas, como la Wii, la Playstation 3 y laXbox360.
Las tarjetas gráficas son uno de los elementos más importantes de cualquier computadora. Por ejemplo, las tarjetas con más RAM dedicada (RAM, del inglés random access memory), o memoria de acceso aleatorio, permiten a los juegos y aplicaciones que se ejecuten más rápido y más eficientemente. Instalar una tarjeta de video más rápida es la mejor manera de mejorar el rendimiento, pero también hay algunos ajustes de software y mejoras que ayudarán a la mayoría de las tarjetasgráficas a funcionar mejor.
La historia de las tarjetas gráficas da comienzo a finales de los años 1960, cuando se pasa de usar impresoras como elemento de visualización a utilizar monitores. Las primeras tarjetas sólo eran capaces de visualizar texto a 40x25 u 80x25, pero la aparición de los primeros chips gráficos como el Motorola 6845 permiten comenzar a dotar a los equipos basados en bus S-100 o Eurocard de capacidades gráficas. Junto con las tarjetas que añadían un modulador de televisión fueron las primeras en recibir el término tarjeta de vídeo.
La competencia es feroz entre AMD Phenom II e Intel i7, los dos últimos procesadores en el mercado hoy en día. Les contare un poco sobre estos procesadores
Antes de pasar a los procesadores, vamos a conocer dos importantes empresas mundiales de fabricación de procesadores, que son AMD e Intel. Sin lugar a dudas, cuando se trata de Intel y la comparación de procesadores AMD, Intel es más popular y tiene unos índices de ventas. El procesador AMD Phenom II X6 es el último procesador de AMD y el Core i7 es el último de la fábrica de Intel. En este artículo vamos a tratar de saber a cuál resulte ser el mejor y el más rápido de entre AMD Phenom II vs Intel7.
BASE DE DATOS
Una base de datos o banco de datos es un conjunto de datos pertenecientes a un mismo contexto y almacenados sistemáticamente para su posterior uso. En este sentido, una biblioteca puede considerarse una base de datos compuesta en su mayoría por documentos y textos impresos en papel e indexados para su consulta. Actualmente, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato digital (electrónico), y por ende se ha desarrollado y se ofrece un amplio rango de soluciones al problema del almacenamiento de datos.
Existen programas denominados sistemas gestores de bases de datos, abreviado SGBD, que permiten almacenar y posteriormente acceder a los datos de forma rápida y estructurada. Las propiedades de estos SGBD, así como su utilización y administración, se estudian dentro del ámbito de la informática.
Las aplicaciones más usuales son para la gestión de empresas e instituciones públicas. También son ampliamente utilizadas en entornos científicos con el objeto de almacenar la información experimental.
Estoy estudiando un Tec en Ing en sistemas informáticos
le he preguntado a los Docentes y me dicen que no tiene limite (según ellos) otros compañeros que ya se han graduado me han dicho valores que ni por cerca a lo que dice uno y el otro y lo que he buscado en los libros de la biblioteca de la institución y no me sacan de mis interrogantes porque no me expone de una forma clara.
¿Cual es la capacidad máxima de almacenamiento por cada base de datos? trabajando en un servidor MySQL 5.0
EVOLUCIÓN Y FUCIONES DE LA BASE DE DATOS
Las bases de datos han evolucionado pasando de sistemas simples a gestores de estructuras de datos que ofrecen un muchas de posibilidades para el manejo de información.
La expresión base de datos (BD) se produjo a comienzos de los años setenta, y a diferencia de ese entonces, las bases de datos han dejado de ser uso exclusivo de grandes corporativos con impresionantes infraestructuras tecnológicas, tal es así que hoy en día, con la popularización de las tecnologías de la información se han extendido a pequeñas y medianas empresas, inclusive hasta el hogar.
Base de datos
BIBLIOGRAFIA
PAGINAS DE INTENET
* WIKIPEDIA
* TARINGA
* YAHOO
* EDUCANDO. COM
* INFORMÁTICA PARA NOVATOS
LIBROS DE TEXTO
* INFORMATICA BASICA II
ANEXOS
MICROPROCESADOR
MICROPROCESADORES ADM Y INTEL
TARJETA DE VIDEO O GRAFICA
BASE DE DATOS
MICROPROCESADOR INTEL 2 DUO MICROPROCESADOR AMD II
TARJETA DE SONIDO
Brecha Digital
Brecha digital hace referencia a la diferencia socioeconómica entre aquellas comunidades que tienen accesibilidad a Internet y aquellas que no, aunque tales desigualdades también se pueden referir a todas las nuevas tecnologías de la información y la comunicación (TIC), como el computador personal, la telefonía móvil, la banda ancha y otros dispositivos. Como tal, la brecha digital se basa en diferencias previas al acceso a las tecnologías.1 Este término también hace referencia a las diferencias que hay entre grupos según su capacidad para utilizar las TIC de forma eficaz, debido a los distintos niveles de alfabetización, carencias, y problemas de accesibilidad a la tecnología. También se utiliza en ocasiones para señalar las diferencias entre aquellos grupos que tienen acceso a contenidos digitales de calidad y aquellos que no. El término opuesto que se emplea con más frecuencia es el de inclusión digital y el de inclusión digital genuina (Maggio, 2007).2 De aquí se extrae también el concepto de "infoexclusión" para desginar los efectos discriminatorios de la brecha digital.
Historia
Historia
El concepto de brecha digital encuentra su antecesor en el llamado informe “El eslabón perdido”, que se publicó en 1982 por la comisión Maitland. Este puso de manifiesto las conclusiones sobre la carencia de infraestructuras de telecomunicaciones en los países en vías de desarrollo, poniendo como ejemplo el teléfono. El término procede del inglés digital divide, utilizado durante la Administración Clinton, aunque su autoría no puede ubicarse con toda precisión. Mientras que en algunas referencias, se cita a Simon Moores como acuñador del término, Hoffman, Novak y Schlosser3 se refieren a Lloyd Morrisettcomo el primero que lo empleó para hacer referencia a la fractura que podía producirse en los Estados Unidos entre "conectados" y "no conectados", si no se superaban las serias diferencias entre territorios, razas y etnias, clases y géneros, mediante inversiones públicas en infraestructuras y ayudas a la educación. En todo caso, durante esta administración se dio lugar a una serie de reportes publicados bajo el título Falling through the Net, en el que se dejaba evidencia del estado que este fenómeno guardaba en la sociedad estadounidense a finales de la década de 1990. A partir de este origen, algunos autores prefieren en español, el término fractura digital4 o estratificación digital,5 por ser mucho más expresivos sobre lo que realmente significa. La traducción a otras lenguas latinas, como el francés, también ha optado por el término de fractura. No obstante, la mayoría de los autores hispanos se decanta por el de brecha, más suave y políticamente correcto. Algunas otras expresiones que han sido usadas para referirse a la Brecha Digital son divisoria digital,6 brecha inforcomunicacional7 y abismo digital.8
Otros autores extienden el alcance de la Brecha Digital para explicarla también en función de lo que se ha denominado analfabetismo digital, que consistente en la escasa habilidad o competencia de un gran sector de la población, especialmente entre aquellos nacidos antes de la década de 1960, para manejar las herramientas tecnológicas de computación y cuyo acceso a los servicios de Internet es por ende muy extenso.
Internet
Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos.
Uno de los servicios que más éxito ha tenido en Internet ha sido la World Wide Web (WWW, o "la Web"), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como medio de transmisión.3
Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP yP2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia -telefonía (VoIP),televisión (IPTV)-, los boletines electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.
HISTORIA
Sus orígenes se remontan a la década de 1960, dentro de ARPA (hoy DARPA), como respuesta a la necesidad de esta organización de buscar mejores maneras de usar los computadores de ese entonces, pero enfrentados al problema de que los principales investigadores y laboratorios deseaban tener sus propios computadores, lo que no sólo era más costoso, sino que provocaba una duplicación de esfuerzos y recursos.8 Así nace ARPANet (Advanced Research Projects Agency Network o Red de la Agencia para los Proyectos de Investigación Avanzada de los Estados Unidos), que nos legó el trazado de una red inicial de comunicaciones de alta velocidad a la cual fueron integrándose otras instituciones gubernamentales y redes académicas durante los años 70.9 10 11
Investigadores, científicos, profesores y estudiantes se beneficiaron de la comunicación con otras instituciones y colegas en su rama, así como de la posibilidad de consultar la información disponible en otros centros académicos y de investigación. De igual manera, disfrutaron de la nueva habilidad para publicar y hacer disponible a otros la información generada en sus actividades.12 13
En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965,Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida.14 15 16
- 1969: La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959 (ver: Arpanet). El mito de que ARPANET, la primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la siguiente cita:
A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la transmisión segura de comunicaciones de voz. Sin embargo, trabajos posteriores enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las redes subyacentes. (Internet Society, A Brief History of the Internet)
- 1972: Se realizó la Primera demostración pública de ARPANET, una nueva red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de ésta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de forma "transparente" para las computadoras conectadas. De la filosofía del proyecto surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e IP.17
- 1983: El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS.18 19
- 1986: La NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico ("backbone") de Internet.20 21
- 1989: Con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones.
- En el CERN de Ginebra, un grupo de físicos encabezado por Tim Berners-Lee creó el lenguaje HTML, basado en el SGML. En 1990 el mismo equipo construyó el primer cliente Web, llamado WorldWideWeb (WWW), y el primer servidor web.23A inicios de los 90, con la introducción de nuevas facilidades de interconexión y herramientas gráficas simples para el uso de la red, se inició el auge que actualmente le conocemos al Internet. Este crecimiento masivo trajo consigo el surgimiento de un nuevo perfil de usuarios, en su mayoría de personas comunes no ligadas a los sectores académicos, científicos y gubernamentales.24Esto ponía en cuestionamiento la subvención del gobierno estadounidense al sostenimiento y la administración de la red, así como la prohibición existente al uso comercial del Internet. Los hechos se sucedieron rápidamente y para 1993 ya se había levantado la prohibición al uso comercial del Internet y definido la transición hacia un modelo de administración no gubernamental que permitiese, a su vez, la integración de redes y proveedores de acceso privados.25
- 2006: El 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en diez años, la cantidad de navegantes de la Red aumentará a 2000 millones.26
El resultado de todo esto es lo que experimentamos hoy en día: la transformación de lo que fue una enorme red de comunicaciones para uso gubernamental, planificada y construida con fondos estatales, que ha evolucionado en una miríada de redes privadas interconectadas entre sí. Actualmente la red experimenta cada día la integración de nuevas redes y usuarios, extendiendo su amplitud y dominio, al tiempo que surgen nuevos mercados, tecnologías, instituciones y empresas que aprovechan este nuevo medio, cuyo potencial apenas comenzamos a descubrir.