domingo, 16 de octubre de 2011

CONSULTA

CONSULTAR

1)Historia y evolución de la Tecnologia (evolución de la tecnologia celular)
2)Definición y modelos de Bases de Datos, lenguaje SQL, modelos de entidad - relación.
3)Historia y evolución de los virus y antivirus (menciona los virus y antivirus más famosos)
4)Historia y evolución del Internet (comercio electronico) SET (transanciones electronicas seguras.
5)Inteligencia Artificial y Sistema Experto, evolución y desarrollo.
6)Redes de Conputadoras, Tipos de servicios y evolución.

SOLUCIÓN


1) HISTORIA Y EVOLUCION DE LA TECNOLOGIA 
La historia de la tecnología es la historia de la invención de herramientas y técnicas con un propósito práctico. La historia moderna está relacionada íntimamente con la historia de la ciencia, pues el descubrimiento de nuevos conocimientos ha permitido crear nuevas cosas y, recíprocamente, se han podido realizar nuevos descubrimientos científicos gracias al desarrollo de nuevas tecnologías, que han extendido las posibilidades de experimentación y adquisición del conocimiento.
Los artefactos tecnológicos son productos de una economía, una fuerza del crecimiento económico y una buena parte de la vida. Las innovaciones tecnológicas afectan y están afectadas por las tradiciones culturales de la sociedad. También son un medio de obtener poder militar
Teoría de la evolución tecnológica
El período pretecnológico, en el que todas las especies animales (aparte de la especie humana, algunas aves y primates) siguen hoy en día, era un período no racional de los primeros homínidos prehistóricos
La aparición de la tecnología, que ha sido posible por el desarrollo de la facultad racional, hallando el camino para
·         La primera etapa la herramienta. Una herramienta proporciona una ventaja mecánica en el cumplimiento de una tarea física, y debe ser alimentada por la energía humana o animal. Los cazadores-recolectores del paleolítico desarrollaron herramientas que aumentaban la eficiencia del trabajo físico para lograr su objetivo, principalmente para la adquisición de alimentos más tarde, durante el neolítico, los animales de tiro o carga (caballo, buey, camello) proporcionaron la energía para herramientas como el arado o el carro. El aumento de la productividad de la producción de alimentos supuso un aumento de más de diez veces sobre la tecnología de los cazadores-recolectores.
·         La segunda etapa tecnológica fue la creación de la máquina. Restringiendo este concepto al de la máquina alimentada por energía no humana ni animal, es una herramienta que sustituye el elemento humano de esfuerzo físico, y requiere de un operador sólo a su función de control. Las máquinas se extendieron con la revolución industrial, aunque el barco o los molinos de viento, y otros tipos de máquinas que responden a esta definición, son muy anteriores.

·         La tercera, y última etapa de la evolución tecnológica es el autómata. El autómata es una máquina que elimina el elemento de control humano con un algoritmo automático. Ejemplos de máquinas que presentan estas características son los relojes digitales, conmutadores telefónicos automáticos, marcapasos, y los programas de ordenador.
Las tres etapas del desarrollo tecnológico se solapan temporalmente, y tecnologías vinculadas a las etapas más primitivas siguen siendo ampliamente utilizadas hoy en día.
EVOLUCION DE LA TECNOLOGIA CELULAR
Historia
El teléfono móvil se remonta a los inicios de la Segunda Guerra Mundial, donde ya se veía que era necesaria la comunicación a distancia, es por eso que la compañía Motorola creó un equipo llamado Handie Talkie H12-16, que es un equipo que permite el contacto con las tropas vía ondas de radio cuya banda de frecuencias en ese tiempo no superaban los 60 MHz..
Evolución y convergencia tecnológica
La evolución del teléfono móvil ha permitido disminuir su tamaño y peso, desde ese primer teléfono móvil en 1983 que pesaba 780 gramos, a los actuales más compactos y con mayores prestaciones de servicio. El desarrollo de baterías más pequeñas y de mayor duración, pantallas más nítidas y de colores, la incorporación de software más amigable, hacen del teléfono móvil un elemento muy apreciado en la vida moderna.
El avance de la tecnología ha hecho que estos aparatos incorporen funciones que no hace mucho parecían futuristas, como juegos, reproducción de música MP3 y otros formatos, correo electrónico, SMS, agenda electrónica PDA, fotografía digital y video digital, video llamada, navegación por Internet y hasta Televisión digital.
La etapa de la evolución de los celulares puede dividirse en tres generaciones:
·         Primera Generación de los teléfonos celulares
La primera generación comprende desde la aparición del primer teléfono celular en el mercado mundial conocido como "el ladrillo" (DynaTac 8000X) hasta finales de los 80. Estos eran caracterizados por ser de tecnología analógica para uso restringido de comunicaciones orales.
·         Segunda Generación de los teléfonos celulares
La segunda generación hace su aparición en la década de los 90, en su mayoría son de tecnología digital y tienen ciertos beneficios muy valorados como duración extendida de la batería, posibilidad de ser más seguros y una definición mayor en el sonido. Estos teléfonos, y también algunos teléfonos analógicos, cuentan con la posibilidad se envió y recepción de mensajes de texto (SMS) sin embargo, aún no es en estos años el "boom" de esta herramienta que en los últimos años se ha masificado de modo increíble. A finales de la década se produce la fiebre por los teléfonos celulares, la gente común se agrega a la lista de usuarios, favorecidos por el tipo de cambio y la competencia entre diferentes compañías.
·         Tercera Generación de los teléfonos celulares
Se caracteriza por juntar las tecnologías anteriores con las nuevas tecnologías incorporadas en los teléfonos celulares. Se inaugura la masificación de los teléfonos celulares. En estos años los teléfonos celulares se encuentran provistos de un chip, tarjeta SIM, donde se encuentra ingresada toda la información.
Una de las causas más importantes de la extensión en el consumo hasta llegar a capaz humildes de la sociedad es la existencia en el mercado de teléfonos GSM de lo que se llama "bajo rango", como los Nokia 1100, Sagem XT, Motorola C200 o C 115, Alcatel, Siemens A56 o Sony Ericsson T106, todos a precios muy económicos y rodeados de promociones.
En 2001 se lanza en Japón la 3G de celulares, los cuales están basados en los UMTS (servicios General de Telecomunicaciones Móviles). En este caso se dio uno de los pasos finales en lo que es la telefonía móvil y la Informática. La novedad más significativa fue la incorporación de una segunda cámara para realizar video llamadas, es decir hablar con una persona y verla al mismo tiempo por medio del teléfono móvil.
Esta evolución en los celulares implica que hoy por hoy estemos hablando de un mercado mucho más amplio y en consecuencia variado.
·         Cuarta Generación (4G): El futuro
La generación 4, o 4G será la evolución tecnológica que ofrecerá al usuario de telefonía móvil un mayor ancho de banda que permitirá, entre muchas otras cosas, la recepción de televisión en Alta Definición.
2) BASES DE DATOS
DEFINICION
Un modelo de base de datos o esquema de base de datos es la estructura o el formato de una base de datos, descrita en un lenguaje formal soportada por el sistema de gestión de bases de datos. En otras palabras, un "modelo de base de datos" es la aplicación de un modelo de datos usado en conjunción con un sistema de gestión de bases de datos.
Los esquemas generalmente son almacenados en un diccionario de datos. Aunque un esquema se defina en un lenguaje de base de datos de texto, el término a menudo es usado para referirse a una representación gráfica de la estructura de la base de datos.
MODELOS
Modelo de tabla
El modelo de tabla es un modelo de base de datos que describe cualquiera de los medio de codificar un modelo de base de datos (comúnmente una tabla) como un archivo de texto simple.
Modelo jerárquico
Un modelo de datos jerárquico es un modelo de datos en el cual los datos son organizados en una estructura parecida a un árbol. La estructura permite a la información que repite y usa relaciones padre/Hijo: cada padre puede tener muchos hijos pero cada hijo sólo tiene un padre. Todos los atributos de un registro específico son catalogados bajo un tipo de entidad
Modelo de red
El modelo de red es un Modelo de base de datos concebido como un modo flexible de representar objetos y su relación
El inventor original del modelo de red fue Charles Bachman, y con ello fue desarrollado en una especificación estándar publicada en 1969 por el consorcio CODASYL.
Modelo dimensional
El modelo dimensional es una adaptación especializada del modelo relacional, solía representar datos en depósitos de datos, en un camino que los datos fácilmente pueden ser resumidos usando consultas OLAP. En el modelo dimensional, una base de datos consiste en una mesa sola grande de los hechos que son descritos usando dimensiones y medidas. Una dimensión proporciona el contexto de un hecho (como quien participó, cuando y donde pasó, y su tipo) y es usado en preguntas al grupo hechos relacionados juntos.
Modelo de objeto
En computación, un modelo de objeto tiene dos significados relacionados pero distintos:
Las propiedades de objetos en general, en un lenguaje de programación específico, la tecnología, la notación o la metodología que los usa. Por ejemplo, el modelo de objetos Java, el modelo de objetos COM, o el modelo de objetos de OMT
Una colección de objetos o clases por las cuales un programa puede examinar y manipular algunas partes específicas de su mundo. En otras palabras, la interfaz orientada a objetos a algún servicio o sistema
SQL
El lenguaje de consulta estructurado o SQL (por sus siglas en inglés structured query lenguaje) es un lenguaje declarativo de acceso a bases de datos relacionales que permite especificar diversos tipos de operaciones en éstas. Una de sus características es el manejo del álgebra y el cálculo relacional permitiendo efectuar consultas con el fin de recuperar -de una forma sencilla- información de interés de una base de datos, así como también hacer cambios sobre ella
Origen y evolución
Los orígenes del SQL están ligados a las de las bases de datos relacionales. En 1970 E. F. Codd propone el modelo relacional y asociado a éste un sub lenguaje de acceso a los datos basado en el cálculo de predicados. Basándose en estas ideas, los laboratorios de IBM definen el lenguaje SEQUEL (Structured English QUEry Lenguaje) que más tarde sería ampliamente implementado por el sistema de gestión de bases de datos (SGBD) experimental System R, desarrollado en 1977 también por IBM. Sin embargo, fue Oracle quien lo introdujo por primera vez en 1979 en un programa comercial.
El SEQUEL terminaría siendo el predecesor de SQL, siendo éste una versión evolucionada del primero.
Modelo de entidad relación
Es un tipo de modelo de datos conceptual de alto nivel que se emplea en el diseño de las base de datos relacionales. El modelo entidad-relación muestra la estructura de la base de datos empleando todo tipo de herramientas conceptuales.
El primer paso para la construcción del modelo entidad-relación es la obtención y el análisis de los requerimientos de los usuarios. Esta tarea es parte de los diseñadores de la base de datos relacional.
Fue creado por Peter Chen en el año 1976, y desde entonces se ha vuelto muy popular. En 1988 el ANSI seleccionó el modelo ER como el modelo estándar para los sistemas de diccionarios de recursos de información (IRDS).
3) HISTORIA Y EVOLUCIÓN DE LOS VIRUS Y ANTIVIRUS
El primer virus atacó a una máquina IBM Serie 360 (y reconocido como tal). Fue llamado Creeper, creado en 1972. Este programa emitía periódicamente en la pantalla el mensaje: «I'm a creeper... catch me if you can!» (¡Soy una enredadera... agárrame si puedes!). Para eliminar este problema se creó el primer programa antivirus denominado Reaper (cortadora).
Sin embargo, el término virus no se adoptaría hasta 1984, pero éstos ya existían desde antes. Sus inicios fueron en los laboratorios de Bell Computers. Cuatro programadores (H. Douglas Mellory, Robert Morris, Víctor Vysottsky y Ken Thompson) desarrollaron un juego llamado Core War, el cual consistía en ocupar toda la memoria RAM del equipo contrario en el menor tiempo posible.
Después de 1984, los virus han tenido una gran expansión, desde los que atacan los sectores de arranque de disquetes hasta los que se adjuntan en un correo electrónico
Origen y Evolución
A continuación se presenta una breve cronología de lo que ha sido los orígenes y la evolución de los virus incluyendo algunos de los virus que más daños han causado en el transcurrir de la historia:
1949: Se da el primer indicio de definición de virus. John Von Neumann (considerado el Julio Verne de la informática), expone su "Teoría y organización de un autómata complicado". Nadie podía sospechar de la repercusión de dicho artículo.
1959: En los laboratorios AT&T Bell, en New Jersey, se inventa el juego "Guerra Nuclear" (Core Wars) o guerra de núcleos de ferrita. Consistía en una batalla entre los códigos de dos programadores, en la que cada jugador desarrollaba un programa cuya misión era la de acaparar la máxima memoria posible mediante la reproducción de sí mismo. Las rutinas del juego CoreWar, desarrolladas en assembler mnemónico son consideradas como los programas precursores de los virus contemporáneos.
1970: El Creeper es difundido por la red ARPANET. El virus mostraba el mensaje "SOY CREEPER... ATRÁPAME SI PUEDES!". Ese mismo año es creado su antídoto: el antivirus Reaper cuya misión era buscar y destruir al Creeper.
1974: El virus Rabbit hacía una copia de sí mismo y lo situaba dos veces en la cola de ejecución del ASP de IBM lo que causaba un bloqueo del sistema.
1980: La red ARPANET es infectada por un "gusano" y queda 72 horas fuera de servicio. La infección fue originada por Robert Tappan Morris, un joven estudiante de informática de 23 años aunque según él fue un accidente.
1983: El juego Core Wars, con adeptos en el MIT, salió a la luz pública en un discurso de Ken Thompson. Dewdney explica los términos de este juego. Ese mismo año aparece el término virus tal como lo entendemos hoy. El ingeniero eléctrico estadounidense Fred Cohen, que entonces era estudiante universitario, acuñó el término "virus" para describir un programa informático que se reproduce a sí mismo.
1985: Dewdney intenta enmendar su error publicando otro artículo "Juegos de Computadora virus, gusanos y otras plagas de la Guerra Nuclear atentan contra la memoria de los ordenadores".
1987: Se da el primer caso de contagio masivo de computadoras a través del MacMag Virus también llamado Peace Virus sobre computadoras Macintosh. Este virus fue creado por Richard Brandow y Drew Davison y lo incluyeron en un disco de juegos que repartieron en una reunión de un club de usuarios
1988: El virus Brain creado por los hermanos Basit y Alvi Amjad de Pakistán aparece en Estados Unidos. Aparecieron dos nuevos virus: Stone, el primer virus de sector de arranque inicial, y el gusano de Internet, que cruzó Estados Unidos de un día para otro a través de una red informática.
1989: El virus Dark Avenger, el primer infector rápido, apareció en 1989
1990: Apareció el primer virus polimórfico.
1995: Se creó el primer virus de lenguaje de macros, WinWord Concept


VIRUS MÁS FAMOSOS
·         Code Red: El 13 de julio de 2001 por primera vez se conoció acerca de este gusano que se propagaba por las redes sin necesidad de un correo electrónico o un sitio web.. Creeper. Se trata del primer virus de la historia. Nació en 1971  y dejó huella porque infectó los computadores PDP-11, los cuales estaban conectados a red de computadores precursora de Internet, Arpa net
·         Melissa: Este virus con nombre de mujer fue el primero que se transmitió vía correo electrónico en 1999. A pesar de no ser tan destructivo, logró propagarse y contagiar a millones de usuarios. A cualquier computador que llegaba se replicaba y saturaba los buzones de correo. Los usuarios de usuarios Microsoft Word 97 ó 2000 y Microsoft Outlook 97 ó 98 fueron los más afectados por Melissa. La plaga, creada por David L. Smith
·         I love you: Un proyecto de tesis presentado por un joven filipino de 24 años, el cual fue rechazado en la universidad, resultó siendo un virus capaz de infectar a más de 45 millones de computadores, con un costo de más de 10 mil millones de dólares. El programa, que fue creado en el año 2000
·         Sasser: A sus 17 años, Sven Jaschan no imaginó que iba a ser el creador de uno de los virus informáticos más terribles y dañinos de la historia. Entre abril y mayo de 2004, esta plaga informática alertó a más de una compañía por su alto grado de peligrosidad debido a que, para contagiar el equipo, no era necesario que el usuario abriera un archivo
·         Storm: En enero del 2007, usuarios de Europa y Estados Unidos comenzaron a recibir mensajes de correo electrónico relacionados con una tormenta (storm) que afectaba el continente europeo
·         Slammer: Este virus, que apareció el 23 de enero del 2003, se calcula que alcanzó a infectar a la mayoría de sus más de 75 mil víctimas en tan solo 10 minutos. Slammer afectaba equipos con Microsoft SQL Server y ocasionaba que muchos servidores de Internet mostraran a sus usuarios que no había servicio o provocaban una lentitud exagerada de la Red.
·         Concept: Se conoce como el primer macro virus, pues estaba incluido en una macro del programa Microsoft Word. Nació en 1995 y se distribuía por medio de archivos adjuntos infectados, que funcionaban principalmente en Word 6.0 y Word 95, los cuales el usuario no sabía que tenían el virus. Cuando la persona recibía el adjunto, se infectaba tan solo abriendo el archivo en su computador y utilizando Word.
·         Netsky: Se trata de toda una familia de virus, cuya primera variante apareció en febrero del 2004, ideada por el mismo joven creador de la plaga Sasser. Los virus de la familia Netsky se hicieron famosos pues mostraban mensajes insultantes alusivos a los autores de las familias de virus Bagle y MyDoom y, en algunos casos, contaban con ciertas acciones que eliminaban a estos últimos. De esto se desprendió una ‘guerra’ de virus, que llevó, en junio del 2004, a contabilizar cerca de 28 versiones de Bagle, 10 de MyDoom y 29 de Netsky. El virus se enviaba a los usuarios por medio de un archivo adjunto en un mensaje de correo electrónico. Una vez abierto, el archivo escaneaba el computador buscando direcciones de correo y se reenviaba a sí mismo a todas las que
·         Conficker: Es uno de virus más recientes, detectados por primera vez en noviembre del 2008. El virus atacaba una vulnerabilidad existente en el sistema operativo Windows y se aprovechaba de sistemas que a octubre de 2008 no habían sido actualizados con determinado parche de seguridad. A pesar de que a comienzos de 2009 se daba por solucionado y eliminado el problema de Conficker, en abril de ese mismo año volvió a atacar.


ANTIVIRUS MÁS FAMOSOS
Un antivirus debe ser evaluado por distintas características como son, capacidad de detección de software malignos conocidos y desconocidos, actualización constante y efectiva, velocidad de escaneo y monitorización, dar grandes posibilidades a los expertos y sencillez a los inexpertos, efectiva limpieza de los virus y buena documentación de ayuda.

·         AVG Anti-virus Free Edition (gratuito): Tiene una versión totalmente gratuita y una de pago. Sin dudar es el mejor antivirus gratuito que se puede encontrar. En su versión gratuita ofrece la misma seguridad que la paga, pero con menos posibilidades de configuración. Es excelente para uso personal y especialmente para computadoras que no son potentes. Su monitor para el escaneo de virus en tiempo real utiliza muy pocos recursos.
·         Avast Home: Es un antivirus que siempre se mantiene actualizado, además posee módulos que controlan el correo electrónico, la mensajería instantánea, la web, las redes P2P, etc. Es excelente para computadoras hogareñas –de hecho la licencia gratuita es teóricamente solo para hogares- porque consume muy pocos recursos.
·         Kaspersky Anti-virus: De pago, con posibilidad de evaluarlo 30 días. Es de los mejores antivirus existentes en el mercado. Gran cantidad de opciones. Es el más completo en cuanto a software maligno ya que no sólo se encarga de virus, gusanos y troyanos, sino que detecta dialers, espías, keyloggers, entre otros malwares. También es de los más actualizados que existen.
·         McAfee: fue de los más usados en su tiempo, rápido, potente, muy actualizado, alta detección de virus, versión de prueba por 90 días.
·         Norton: Uno de los más conocidos, muy actualizado, muy pesado y lento, buena capacidad de detección, grandes herramientas. Algunos usuarios se quejan de problemas de incompatibilidad por ser sumamente invasivo.
·         Panda: empresa española dedicada de lleno a la seguridad informática. El antivirus posee muchísimas herramientas potentes, es pesado para máquinas no poderosas, muy actualizado. El mejor antivirus salido de España. Algunos usuarios se quejan de su lentitud. Versión de prueba por 30 días.
·         NOD32 Anti-Virus: muy rápido, eficiente, excelente heurística y excelente en cuanto a servicio técnico online. Versión prueba de 25 días.
·         BitDefender: Liviano y efectivo, bien actualizado, buena capacidad de detección.
·         Avast Home: liviano y gratuito. Hemos detectado buenas críticas de este, pero no las suficientes.
4) HISTORIA Y EVOLUCIÓN DEL INTERNET
Internet se define como una red interconectada de redes de computadores, de carácter internacional e intercontinental, que une a servidores de todo el mundo y que se comunica a través de diversos canales, como lo son las líneas telefónicas, el cable coaxial, las microondas, fibra óptica y los satélites.
Hay dos momentos sustanciales que marcan la historia del desarrollo de Internet; el primero tiene directa relación con medidas de defensa militar, y el otro se refiere, por consecuencia directa, al desarrollo de las economías nacionales a través del planeta y la búsqueda de la integración mercantil y financiera. Este proceso lo conocemos como globalización.
El origen de Internet se remonta a los años sesenta, fecha en que nace una red formada por la interconexión de cuatro computadoras estadounidenses, cuyo objetivo era compartir recursos informativos.
A finales de la década de 1960, el gobierno de Estados Unidos decide tomar medidas ante el peligro que suponía, en plena Guerra Fría, que en caso de desencadenarse un conflicto nuclear, se destruyeran los centros informáticos militares, con la consiguiente pérdida de valiosa información para responder a la ofensiva. Así, un grupo de científicos del Departamento de Defensa de Estados Unidos comienza a trabajar en la Red de la Agencia de Proyectos Avanzados de Investigación ARPANET (Advanced Research Projets Agency Network).
ARPAnet nace en 1969 como un sistema de intercomunicación entre diferentes computadores a lo largo y ancho de toda la geografía de Estados Unidos, de forma que hasta en caso de desaparición física de uno o varios de ellos, la información continuaría fluyendo entre los restantes sin perder un solo dato. Esta red enlazaba ordenadores militares y científicos. En 1972, la Agencia de Proyectos Avanzados de Investigación (ARPA) se convierte en Agencia de Proyectos Avanzados de Investigación para la Defensa (DARPA), siendo así una extensión directa del Departamento de Defensa de los Estados Unidos. Esta agencia financió Internet a principios de los ’70 y fijó como protocolo de transferencia de datos el TCP/IP.
La posibilidad de tener algo como comercio electrónico no se observó hasta un tiempo después. Primero se necesitó de la aparición de la World Wide Web (WWW.), formulada por Tim Berners-Lee en 1989. Las primeras páginas web comenzaron a aparecer en 1992, llegando a sumar alrededor de un centenar en 1993. Hacia 1996 la Internet llegaba a estar conformada por 94,000 redes y para 1992 más de 2.5 millones de páginas conformaban a la web.

Otras redes y las bases del comercio electrónico
Antes de la aparición de la Internet, las operaciones y transacciones financieras, comerciales y bancarias por medios electrónicos no eran desconocidas, pero si estaban reservadas a muy pocos y eran de limitada funcionalidad. Estaban reservadas para operaciones interbancarias, gubernamentales o privadas de gran valor.
La Internet vino a cambiar esto. No sólo proporcionaba un protocolo estándar que permitía comunicarse con diversas aplicaciones y servicios sino además proporcionaba medios de accesos confiables y baratos, inclusive a través de línea telefónica conmutada. Uniformidad, omnipresencia y bajo costo se volvieron términos y elementos clave que dieron el triunfo a la Internet sobre otras redes.
EDI
EDI, Electronic Data Interxchange, fue uno de los primeros esfuerzos para el intercambio de datos comerciales en forma estructurada por medios electrónicos fue concebido como un reemplazo de órdenes de compra en papel con equivalentes electrónicos.
SWIFT
En 1973, con el soporte de 239 bancos en 15 países, se crea con sede en Bruselas, Bélgica al grupo denominado Society Ford Worldwide Interbank Financial Telecommunication (SWIFT), cuya misión es la creación de un enlace de comunicaciones, un lenguaje común y el procesamiento de datos compartido a nivel mundial para transacciones financieras internacionales.
LOS BBS
La llegada de las computadoras caseras y personales dio origen a un sin número de redes locales y servicios en línea (principalmente correo, consulta a bancos de datos y foros de discusión).. De todos estos el más famoso tal vez sea Compuserve, cuya presencia internacional pudo haberla llevado a convertirse en un rival de la Internet de no ser por un pequeño detalle: era muy cara

Elementos del comercio electrónico, Intercambio de datos y transacciones.
Antes de la aparición de la World Wide Web la comunicación entre equipos de cómputo era vista exclusivamente como un intercambio de datos. Las transacciones consistían en el intercambio de una serie de valores, en una serie de eventos definidos por el protocolo de comunicación en el que cifras y secuencias de caracteres eran intercambiadas entre los equipos involucrados
Figura 1.- Intercambio de datos. Secuencias de datos numéricos o caracteres son enviados y recibidos entre equipos, alimentando bases de datos, aplicaciones o informando a operadores.
La posibilidad de interacción entre más equipos, involucrar procesos de negocios y disparar una serie de eventos muy cercanos a los que ocurren en una transacción mercantil del mundo real fue lo que dio origen al término y concepto de comercio electrónico. Definiremos al término comercio electrónico como la actividad de compra y venta de bienes y servicios a través de la Internet donde las transacciones consisten del intercambio de una serie de documentos electrónicos que llevan información de los elementos negociados así como de los procesos, áreas y personajes involucrados.
Modalidades del comercio electrónico.
Es muy común referirse al comercio electrónico con el término e-commerce sin mayor importancia de los actores o proceso involucrados, pero existen variantes de comercio electrónico que dependen de la modalidad o naturaleza de la transaccionalidad. Dichas variantes son identificadas como:
B2B. - Business to Business (Negocio a Negocio). Es la modalidad de comercio electrónico destinado al comercio de mayoreo. Se caracteriza por el manejo de grandes volúmenes de mercancía, un mayor flujo de datos y enormes cantidades monetarias; todo aquello que precisamente se encontraría cuando las empresas hacen negocio con las empresas.
B2C.- Business to Consumer (Negocio a Consumidor). Es el más común para la mayoría de los usuarios de la Internet. Los precios son usualmente menores que los que se encuentran en la calle pero no son de mayoreo. Está enfocado a la venta en menudeo y para personas físicas.
B2G.- Business to Government (Negocio a Gobierno). Únicamente ventas a gobiernos locales, municipales y estatales es lo que contempla. Aplica reglas muy particulares para la licitación de contratos o la enajenación de bienes y servicios. El volumen y monto de ventas es el principal atractivo. Usualmente no hay pago en línea, pero la tendencia es incorporarlo.
B2E.- Business to Employee (Negocio a Empleado). Esta modalidad está vista como un medio para el ofrecimiento de prestaciones y beneficios que la compañía puede ofrecer a sus empleados. Usualmente son tiendas virtuales que sólo pueden ser vistas en la intranet de la organización. Formas de pago on-line están disponibles junto con la posibilidad de descuentos por nómina u otros esquemas.

Ventajas y desventajas del Comercio Electrónico

Ventajas para los Clientes:                                                          Ventajas para las Empresas:
•Permite el acceso a más información                                •Mejoras en la distribución.
•Facilita la investigación y comparación de mercados       •Comunicaciones de mercadeo
•Abarata los costos y precios                                               •Beneficios operacionales

Riesgos del Comercio Electrónico
Entorno empresarial y tecnológico cambiante, una privacidad y seguridad además la mayoría de los usuarios no confía en la Web como canal de pago y cuestiones legales, políticas y sociales. Existen algunos aspectos abiertos en torno al comercio electrónico: validez de la firma electrónica, legalidad de un contrato electrónico, violaciones de marcas y derechos de autor, etc.
Tiendas y comunidades
Como cualquier otro medio de comunicación la Internet permite colocar publicidad y hacer llegar publicidad a los consumidores potenciales, de la misma forma como puede hacerse llegar a través de los medios escritos (diarios y revistas) o por canales de radiotransmisión (radio y TV).
Los medios de comunicación masiva tradicionales se caracterizan por ser unidireccionales. Por ejemplo, cuando a través de la prensa, radio o TV uno se entera de un nuevo producto es necesario que uno acuda a una tienda o con un distribuidor para ver, conocer más o adquirir el producto. Tratándose de un servicio es necesario además establecer un contrato.
La verdadera ventaja de la Internet radica en la velocidad con que la transacción puede ser llevada a cabo y por la facilidad para obtener más información de la mercancía a adquirir.
Transacción electrónica segura (SET)
SET (Secure Electronic Transaction; en castellano, Transacción Electrónica Segura) es un protocolo desarrollado por Visa y MasterCard y que utiliza el estándar SSL (Secure Socket Layer).
SET se basa en el uso de una firma electrónica del comprador y una transacción que involucra, no sólo al comprador y al vendedor, sino también a sus respectivos bancos.
Cómo funciona SET
Cuando se realiza una transacción segura por medio de SET, los datos del cliente son enviados al servidor del vendedor, pero dicho vendedor sólo recibe la orden. Los números de la tarjeta del banco se envían directamente al banco del vendedor, quien podrá leer los detalles de la cuenta bancaria del comprador y contactar con el banco para verificarlos en tiempo real.
Este tipo de método requiere una firma electrónica del usuario de la tarjeta para verificar que es su propietario.
SET resuelve las siguientes necesidades:
1. Confidencialidad de los datos, tanto económicos, como respecto a la naturaleza de los actores participantes (comprador y vendedor)
2. Integridad de los datos en la transacción, sin la posibilidad de modificaciones Intermedias
3. Autentificación del comprador como legítimo usuario de un medio de pago.
4. Autentificación del comercio como poseedor de una cuenta de liquidación como un banco vendedor.
5. Compatibilidad entre múltiples plataformas "hardware" y "software"
5) INTELIGENCIA ARTIFICIAL O SISTEMA EXPERTO
Concepto de Inteligencia Artificial
La Inteligencia Artificial es el estudio de cómo hacer que los ordenadores hagan cosas que, en estos momentos, hace mejor el hombre. Para otros, la Inteligencia Artificial (IA) es una ciencia que intenta la creación de programas para máquinas que imiten el comportamiento y la compresión humana, que sea capaz de aprender, reconocer y pensar, está orientada a conseguir que las máquinas realicen trabajos donde se aplique la inteligencia, el razonamiento y el conocimiento de un ser humano.
Historia de la Inteligencia Artificial
Desde tiempos muy remotos en la historia el hombre ha soñado con crear máquinas con inteligencia propia, muestra de esto pueden ser: el mito del coloso de Rodas entre los griegos, las estatuas "parlantes" del medioevo, el androide de Von Kempel en que jugó al ajedrez con Napoleón, y el "motor analítico" de Charles Babbage que calculaba logaritmos; sin embargo estos intentos resultaron infructuosos, hasta 1943 cuando la base de la Inteligencia Artificial fue asentada, gracias a Warren Mc Culloch y Walter Pitts, quienes propusieron un modelo de neurona de cerebro humano y animal. Estas neuronas nerviosas informáticas proporcionaron una representación simbólica de la actividad cerebral. Un tiempo después, Nobert Wiener tomó estas y otras ideas y las elaboró dentro de un mismo campo que se llamó Cibernética, a partir de cual nacería, la Inteligencia Artificial.
Un evento que marcó en forma definitiva el ingreso de la Inteligencia Artificial en las Ciencias, fue el congreso en Darthmouth en 1956 en la cual se llegó a la definición de las presuposiciones básicas del núcleo teórico de la Inteligencia Artificial:
  El reconocimiento de que el pensamiento puede ocurrir fuera del cerebro, es decir, en máquinas.
  La presuposición de que el pensamiento puede ser comprendido de manera formal y científica.
  La presuposición de que la mejor forma de entenderlo es a través de computadoras digitales.
En la década de los 50's, hubo dos corrientes de investigación tras la propuesta de Alan Turing sobre la inteligencia de las máquinas en su artículo “Maquinaria Computacional e inteligencia”: la primera corriente fue fundada por John Von Neuman, quien trató de hacer analogías del cerebro humano y construyó a partir de esto las computadoras. Así, construyó varias máquinas que tomaban como base los conocimientos que hasta ese entonces existían sobre el cerebro humano, y diseñó los primeros programas que se almacenaban en la memoria de una computadora.
La otra corriente fue la que inició Mc Culloch, quien decía que las leyes que gobiernan al pensamiento deben buscarse entre las reglas que gobiernan a la información y no entre las que gobiernan a la materia
El trabajo realizado por Mc Culloch, quien se unió a Walter Pitts fue el primer trabajo de IA, y aportó conocimientos sobre la fisiología básica y funcionamiento de las neuronas en el cerebro, el análisis formal de la lógica proposicional de Russell y Whitehead y la teoría de computación de Turing. Ambos propusieron un modelo constituido por neuronas artificiales, en el que cada una de ellas se caracterizaba por estar “encendida” o “apagada”; el “encendido” se daba como respuesta a la estimulación producida por una cantidad suficiente de neuronas vecinas.
Concepto de Sistema Experto
Se puede decir que los Sistemas Expertos son el primer resultado operacional de la Inteligencia artificial, pues logran resolver problemas a través del conocimiento y raciocinio de igual forma que lo hace el experto humano.
Un Sistema Experto (SE), es básicamente un programa de computadora basado en conocimientos y raciocinio que lleva a cabo tareas que generalmente sólo realiza un experto humano; es decir, es un programa que imita el comportamiento humano en el sentido de que utiliza la información que le es proporcionada para poder dar una opinión sobre un tema en especial.
Los usuarios que introducen la información al SE son en realidad los expertos humanos, y tratan a su vez de estructurar los conocimientos que poseen para ponerlos entonces a disposición del sistema. Los SE son útiles para resolver problemas que se basan en conocimiento.
Las características principales de este tipo de problemas, según algunos autores, son:
·         Utilizan normas o estructuras que contengan conocimientos y experiencias de expertos especializados.
·         Se obtienen conclusiones a través de deducciones lógicas.
·         Contienen datos ambiguos.
·         Contienen datos afectados por factores de probabilidad.
Con base en lo anterior, algunos investigadores de IA señalan que un SE debe cumplir con las siguientes características:
·         Tener un amplio conocimiento específico del área de especialización.
·         Aplicar técnicas de búsqueda.
·         Tener soporte para Análisis Heurístico.
·         Poseer habilidad para inferir nuevos conocimientos ya existentes.
·         Tener la capacidad de procesar símbolos.
·         Tener la capacidad para explicar su propio razonamiento.
Desarrollo Histórico de los Sistemas Expertos
Los Sistemas Expertos como tales, surgen a mediados de los años sesenta; en esos tiempos, se creía que bastaban unas pocas leyes de razonamiento junto con potentes ordenadores para producir resultados brillantes. Los primeros investigadores que desarrollaron programas basados en leyes de razonamiento fueron Alan Newell y Herbert Simón, quienes desarrollaron el GPS (General Problem Solver). Este sistema era capaz de resolver problemas como el de las torres de Hanoi y otros similares, a través de la criptoaritmética. Sin embargo, este programa no podía resolver problemas más “cotidianos” y reales, como, por ejemplo, dar un diagnóstico médico.
El primer SE que se aplicó a problemas más reales fue desarrollado en 1965 con el fin de identificar estructuras químicas: el programa se llamó DENDRAL. Lo que este Sistema Experto hacía, al igual que lo hacían los expertos de entonces, era tomar unas hipótesis relevantes como soluciones posibles, y someterlas a prueba comparándolas con los datos. El nombre DENDRAL significa árbol en griego. Debido a esto, el programa fue bautizado así porque su principal tarea era buscar en un árbol de posibilidades la estructura del compuesto.
El siguiente SE que causó gran impacto fue el Mycin, en 1972, pues su aplicación era detectar trastornos en la sangre y recetar los medicamentos requeridos. Para 1973, se creó Tieresias, cuya función era la de servir de intérprete o interfaz entre los especialistas que manejaban el Mycin cuando introducían nuevos conocimientos.
6) REDES DE COMPUTADORA
Una red de computadoras, también llamada red de ordenadores o red informática, es un conjunto de equipos informáticos conectados entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricos, ondas electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de compartir información y recursos y ofrecer servicios.
CLASIFICACION DE LAS REDES
Por alcance
•Red de área personal o PAN (personal área network) es una red de ordenadores usada para la comunicación entre los dispositivos de la computadora cerca de una persona.
•Red de área local o LAN (local área network) es una red que se limita a un área especial relativamente pequeña tal como un cuarto, un solo edificio, una nave, o un avión. Las redes de área local a veces se llaman una sola red de localización.
•Una red de área de campus o CAN (campus área network) es una red de computadoras que conecta redes de área local a través de un área geográfica limitada, como un campus universitario, o una base militar.
•Una red de área metropolitana (metropolitan área network o MAN, en inglés) es una red de alta velocidad (banda ancha) que da cobertura en un área geográfica extensa.
•Las redes de área amplia (wide área network, WAN) son redes informáticas que se extienden sobre un área geográfica extensa.
•Una red de área de almacenamiento, en inglés SAN (storage area network), es una red concebida para conectar servidores, matrices (arrays) de discos y librerías de soporte.
•Una Red de área local virtual (Virtual LAN, VLAN) es un grupo de computadoras con un conjunto común de recursos a compartir y de requerimientos, que se comunican como si estuvieran adjuntos a una división lógica de redes de computadoras en la cuál todos los nodos pueden alcanzar a los otros por medio de broadcast (dominio de broadcast) en la capa de enlace de datos, a pesar de su diversa localización física.
•Red irregular es un sistema de cables y buses que se conectan a través de un módem, y que da como resultado la conexión de una o más computadoras.
Por tipo de conexión
Medios guiados
•El cable coaxial se utiliza para transportar señales eléctricas de alta frecuencia que posee dos conductores concéntricos, uno central, llamado vivo, encargado de llevar la información, y uno exterior, de aspecto tubular, llamado malla o blindaje, que sirve como referencia de tierra y retorno de las corrientes.
•El cable de par trenzado es una forma de conexión en la que dos conductores eléctricos aislados son entrelazados para tener menores interferencias y aumentar la potencia y disminuir la diafonía de los cables adyacentes.
•La fibra óptica es un medio de transmisión empleado habitualmente en redes de datos; un hilo muy fino de material transparente, vidrio o materiales plásticos, por el que se envían pulsos de luz que representan los datos a transmitir.
Medios no guiados
•Red por radio
•Red por infrarrojos
•Red por microondas
Por relación funcional
•Cliente-servidor es una arquitectura que consiste básicamente en un cliente que realiza peticiones a otro programa (el servidor) que le da respuesta.
•Peer-to-peer es aquella red de computadoras en la que todos o algunos aspectos funcionan sin clientes ni servidores fijos, sino una serie de nodos que se comportan como iguales entre sí.
Por tecnología
•Red Point-To-Point es aquella en la que existe multitud de conexiones entre parejas individuales de máquinas. Este tipo de red requiere, en algunos casos, máquinas intermedias (routers) que establezcan rutas para que puedan transmitirse paquetes de datos.
•Red Broadcast se caracteriza por transmitir datos por un sólo canal de comunicación que comparten todas las máquinas de la red. En este caso, el paquete enviado es recibido por todas las máquinas de la red pero únicamente la destinataria puede procesarlo.
Por topología
•La red en bus se caracteriza por tener un único canal de comunicaciones (denominado bus, troncal o backbone) al cual se conectan los diferentes dispositivos.
•En una red en anillo cada estación está conectada a la siguiente y la última está conectada a la primera.
•En una red en estrella las estaciones están conectadas directamente a un punto central y todas las comunicaciones se han de hacer necesariamente a través de éste.
•En una red en malla cada nodo está conectado a todos los otros.
•En una red en árbol los nodos están colocados en forma de árbol. Desde una visión topológica, la conexión en árbol es parecida a una serie de redes en estrella interconectadas salvo en que no tiene un nodo central.
•En una red mixta se da cualquier combinación de las anteriores
Por la direccionalidad de los datos
•Simplex o Unidireccional: un Equipo Terminal de Datos transmite y otro recibe.
•Half-Duplex o Bidireccional: sólo un equipo transmite a la vez. También se llama Semi-Duplex.
•Full-Duplex: ambos pueden transmitir y recibir a la vez una misma información.
Por grado de autentificación
•Red Privada: una red privada se definiría como una red que puede usarla solo algunas personas y que están configuradas con clave de acceso personal.
•Red de acceso público: una red pública se define como una red que puede usar cualquier persona y no como las redes que están configuradas con clave de acceso personal. Es una red de computadoras interconectadas, capaz de compartir información y que permite comunicar a usuarios sin importar su ubicación geográfica.
Por servicio o función
•Una red comercial proporciona soporte e información para una empresa u organización con ánimo de lucro.
•Una red educativa proporciona soporte e información para una organización educativa dentro del ámbito del aprendizaje.
•Una red para el proceso de datos proporciona una interfaz para intercomunicar equipos que vayan a realizar una función de cómputo conjunta.