martes, 29 de marzo de 2011

Solarball esfera solar que ayuda a purificar el agua


Muchos grupos de estudiantes universitarios en todo el mundo investigan nuevas formas de hacer las cosas más sencillas para poder preservar la especie y el medio ambiente.
Eso lo ha aplicado un estudiante graduado de la Universidad de Monash, en Australia, ha diseñado un dispositivo para purificar el agua.
Jonathan Liow ha desarrollado Solarball, un dispositivo que ayudará a purificar el agua de manera sostenible y asequible.
La Solarball ayudará a erradicar enfermedades que se encuentran en el agua ayudando a salvar vidas en países en vía de desarrollo.
El funcionamiento de la Solarball es muy sencillo, la esfera es colocada en el agua donde absorberá la luz solar para separar el agua de los contaminantes en su interior y así obtener hasta tres litros de agua potable por día.
El Solarball es finalista en el Concurso Internacional de diseño James Dyson y próximamente se expondrá en la Feria Internacional de Diseño en Milán. Esperemos que este diseño pueda llegar a las personas donde no pueden purificar el agua muy fácilmente.

Esto es muy importante pero si los resultados fuera mucho mas altos que 3 litros por día pero pienso que es el primer paso, ya que en los países de latinoamerica el 80% de la población tiene amebas y esto es debido al agua contaminada que se toma en esta región.

viernes, 25 de marzo de 2011

Desarrollan sistema para detectar tsunamis desde el espacio




En la actualidad para detectar un tsunami se usan dos instrumentos muy comunes, las boyas submarinas y sismógrafos.
Con estos instrumentos se puede alertar a poblaciones costeras de la llegada de un tsunami en tan solo minutos.
Con estos métodos la alarma de tsunami se activa cuando la escala da más de 6.5 grados en la escala de richter, sin embargo con esto no se tiene un 100% de certeza si el tsunami se creara o no. Pero esto es cosa del pasado porque gracias a la tecnología espacial dentro de algunos años podremos mejorar la predicción de los tsunamis.
La detección de tsunamis se hará por medio de satélites especializados que se dedicaran a la observación de la Tierra para medir la altura de la superficie del océano.
PARIS (como se llama este proyecto) además de predecir los tsunamis, también se puede utilizar para estudiar las corrientes del océano para comprender mejor la dinámica oceánica. Además, aportaría medidas interesantes sobre la vegetación, el nivel de agua de los ríos o el grosor de las capas de hielo.

Para mi punto de vista esto ayudara mucho a todas las poblaciones ya que los Tsunamis son una amenaza silenciosa, pero cabe recalcar que todo tsunami siempre proviene de un movimiento telurico que en este caso se da en el mar.

martes, 22 de marzo de 2011

Arquitectura de un Sistema Experto



Mediante este gráfico podemos entender que la arquitectura de un sistema experto está basada en una entrada de datos realizada por el usuario a fin de efectuar la oportuna consulta. Las entradas no solamente están compuestas de estas consultas. El aprendizaje del sistema y las condiciones específicas del problema a tratar también han de encontrarse en la entrada.

Junto a ello, se encuentra la administración del sistema, compuesta por una interfaz encargado del manejo de la sintaxis del lenguaje y de la máquina de inferencias, que se encarga de efectuar la búsqueda en la base de conocimientos y en la base de datos. Por último, se tienen los resultados. (1)

De una manera mas resumida encontré este aporte en la web:


" Arquitectura. Un sistema basado en conocimientos se compone de:

  1. Base de Conocimientos (Knowledgebase): representa el conocimiento del experto y el problema en forma de hechos descriptivos y reglas de inferencia lógica. La base de conocimientos es algo más que una base de datos, ya que su mecanismo de búsqueda (query) es más que una simple comparación (text matching), de hecho (como se verá más delante), es una búsqueda donde un elemento puede "encadenar" a otro (chaining) utilizando comparaciones más sofisticadas (unification and pattern matching). Desde luego, la calidad del conocimiento de salida dependerá de la calidad del conocimiento depositado en su correspondiente base de conocimiento (garbage-in, garbage-out).
  2. Máquina de Inferencias (Inference Machine): traduce reglas siguiendo sus propios algoritmos de búsqueda, control y resolución de conflictos. Dos métodos típicos de búsqueda (encadenamiento de reglas) son: 1) forward chaining y 2) backward chaining. De manera simplificada, el proceso inicia partiendo de los hechos del problema que se alimenten al sistema, e.g. un dato, lectura, señal, imágen, etc. Luego, la máquina intenta llegar a una conclusión válida buscando aquellas relgas que crea puedan cumplirse, i.e. mecanismo de encadenamiento. Cada vez que se cumple una regla, existe un nuevo hecho que de no ser la solución definitiva, puede usarse este "nuevo" conocimiento como un "nuevo" hecho en la base de conocimientos.
  3. Interfaz de Usuario (User Interface): recibe y entrega información interactuando con el usuario, es decir, el usuario puede: 1) alimentar hechos, 2) proporcionar objetivos, 3) nuevas restricciones y reglas, 4) escribir programas que deban adicionarse al sistema, 5) solicitar resultados y reportes, y 6) cuestionar cómo se obtuvieron ciertas conclusiones. Dada la posible complejidad que puede existir entre el sistema y el usuario, se pueden tener distintos tipos de especialistas como usuarios, tales como: 1) el experto, 2) el ingeniero de conocimiento, 3) el programador, 4) el administrador del sistema, y 5) los usuarios finales." (2)

VIA (1): Jackson, P. Introducción a Sistemas Expertos Addison-Wesley, 1990.

VIA (2): http://www.depi.itch.edu.mx/apacheco/ai/definic.htm


lunes, 21 de marzo de 2011

NAVI usando Kinect para mejorar la calidad de vida de los ciegos


La tecnología también puede mejorar la calidad de vida de las personas que tienen alguna discapacidad, y el Kinect está contribuyendo para que esto pueda suceder. Esto lo pudieron comprobar un grupo de estudiantes de la Universidad de Konstanz en Alemania.

Este grupo lo que hizo fue crear un sistema con software incluido que utiliza el kinect y básicamente lo que hace es poner la cámara infrarroja que posee en un casco (el Kinect en este caso) para capturar información y utiliza comandos de audio para darle instrucciones al usuario a través de una diadema o audífonos que tendrá la persona.

Este dispositivo se le ha llamado NAVI (Navigational Aids for the Visually Impaired). Pero no solo tiene el Kinect instalado, porque para que el software pueda avisarle al usuario que tiene un objeto al frente, NAVI cuenta con dos cámaras a los lados de los cascos, lo cual que por medio de realidad aumentada el sistema detecta y le dice al usuario a que distancia están los obstáculos.

Esperemos que este sistema sea mejorado, para que pueda estar en las tiendas especializadas, para mejorar la calidad de vida a los discapacitados.

VIA: http://www.avancestecnologicos.org/navi-usando-kinect-para-mejorar-la-calidad-de-vida-de-los-ciegos.html

domingo, 20 de marzo de 2011

Ciclo de Vida de los Sistemas Expertos y Tradicionales

SISTEMAS EXPERTOS

INTRODUCCIÓN

Se considera a alguien un experto en un problema cuando este individuo tiene conocimiento especializado sobre dicho problema. En el área de los (SE) a este tipo de conocimiento se le llama conocimiento sobre el dominio. La palabra dominio se usa para enfatizar que el conocimiento pertenece a un problema específico.
Antes de la aparición del ordenador, el hombre ya se preguntaba si se le arrebataría el privilegio de razonar y pensar. En la actualidad existe un campo dentro de la inteligencia artificial al que se le atribuye esa facultad: el de los sistemas expertos (SE). Estos sistemas también son conocidos como Sistemas Basados en Conocimiento, los cuales permiten la creación de máquinas que razonan como el hombre, restringiéndose a un espacio de conocimientos limitado. En teoría pueden razonar siguiendo los pasos que seguiría un experto humano (médico, analista, empresario, etc.) para resolver un problema concreto. Este tipo de modelos de conocimiento por ordenador ofrece un extenso campo de posibilidades en resolución de problemas y en aprendizaje. Su uso se extenderá ampliamente en el futuro, debido a su importante impacto sobre los negocios y la industria.

HISTORIA DE LOS (SE)

Sus inicios datan a mediados de los años sesenta. Durante esta década los investigadores Alan Newell y Herbert Simon desarrollaron un programa llamado GPS (General Problem Solver; solucionador general de problemas). Podía trabajar con criptoaritmética, con las torres de Hanoi y con otros problemas similares. Lo que no podía hacer el GPS era resolver problemas del mundo real, tales como un diagnóstico médico.
Algunos investigadores decidieron entonces cambiar por completo el enfoque del problema restringiendo su ambición a un dominio específico e intentando simular el razonamiento de un experto humano. En vez de dedicarse a computarizar la inteligencia general, se centraron en dominios de conocimiento muy concretos. De esta manera nacieron los SE.
A partir de 1965, un equipo dirigido por Edward Feigenbaum, comenzó a desarrollar SE utilizando bases de conocimiento definidas minuciosamente.
Dos años más tarde se construye DENDRAL, el cual es considerado como el primer SE. La ficción de dicho SE era identificar estructuras químicas moleculares a partir de su análisis espectro gráfico.
En la década de los setenta se desarrolló MYCIN para consulta y diagnóstico de infecciones de la sangre. Este sistema introdujo nuevas características: utilización de conocimiento impreciso para razonar y posibilidad de explicar el proceso de razonamiento. Lo más importante es que funcionaba de manera correcta, dando conclusiones análogas a las que un ser humano daría tras largos años de experiencia. En MYCIN aparecen claramente diferenciados motor de inferencia y base de conocimientos. Al separar esas dos partes, se puede considerar el motor de inferencias aisladamente. Esto da como resultado un sistema vacío o shell (concha). Así surgió EMYCIN (MYCIN Esencial) con el que se construyó SACON, utilizado para estructuras de ingeniería, PUFF para estudiar la función pulmonar y GUIDON para elegir tratamientos terapéuticos.
En esa época se desarrollaron también: HERSAY, que intentaba identificar la palabra hablada, y PROSPECTOR, utilizado para hallar yacimientos de minerales. De este último derivó el shell KAS (Knowledge Adquisition System).
En la década de los ochenta se ponen de moda los SE, numerosas empresas de alta tecnología investigan en este área de la inteligencia artificial, desarrollando SE para su comercialización. Se llega a la conclusión de que el éxito de un SE depende casi exclusivamente de la calidad de su base de conocimiento. El inconveniente es que codificar la pericia de un experto humano puede resultar difícil, largo y laborioso.
Un ejemplo de SE moderno es CASHVALUE, que evalúa proyectos de inversión y VATIA, que asesora acerca del impuesto sobre el valor añadido o IVA.

DEFINICIONES DE LOS (SE)

Es un software que imita el comportamiento de un experto humano en la solución de un problema. Pueden almacenar conocimientos de expertos para un campo determinado y solucionar un problema mediante deducción lógica de conclusiones.
Son SE aquellos programas que se realizan haciendo explicito el conocimiento en ellos, que tienen información específica de un dominio concreto y que realizan una tarea relativa a este dominio.
Programas que manipulan conocimiento codificado para resolver problemas en un dominio especializado en un dominio que generalmente requiere de experiencia humana.
Programas que contienen tanto conocimiento declarativo (hechos a cerca de objetos, eventos y/o situaciones) como conocimiento de control (información acerca de los cursos de una acción), para emular el proceso de razonamiento de los expertos humanos en un dominio en particular y/o área de experiencia.
Software que incorpora conocimiento de experto sobre un dominio de aplicación dado, de manera que es capaz de resolver problemas de relativa dificultad y apoyar la toma de decisiones inteligentes en base a un proceso de razonamiento simbólico.

APLICACIONES

Sus principales aplicaciones se dan en las gestiones empresariales debido a que;
a) Casi todas las empresas disponen de un ordenador que realiza las funciones básicas de tratamiento de la información: contabilidad general, decisiones financieras, gestión de la tesorería, planificación, etc.
b) Este trabajo implica manejar grandes volúmenes de información y realizar operaciones numéricas para después tomar decisiones. Esto crea un terreno ideal para la implantación de los SE.
Además los SE también se aplican en la contabilidad en apartados como: Auditoria(es el campo en el que más aplicaciones de SE se está realizando) Fiscalidad, planificación, análisis financiero y la contabilidad financiera.

ÁREAS DE APLICACIÓN

Los SE se aplican a una gran diversidad de campos y/o áreas. A continuación se listan algunas de las principales:
Militar Informática Telecomunicaciones
Química Derecho Aeronáutica
Geología Arqueología Agricultura
Electrónica Transporte Educación
Medicina Industria Finanzas y Gestión

VENTAJAS

Estos programas proporcionan la capacidad de trabajar con grandes cantidades de información, que son uno de los grandes problemas que enfrenta el analista humano que puede afectar negativamente a la toma de decisiones pues el analista humano puede depurar datos que no considere relevantes, mientras un SE debido a su gran velocidad de proceso analiza toda la información incluyendo las no útiles para de esta manera aportar una decisión más sólida.

LIMITACIONES

Es evidente que para actualizar se necesita de reprogramación de estos (tal vez este sea una de sus limitaciones más acentuadas) otra de sus limitaciones puede ser el elevado costo en dinero y tiempo, además que estos programas son poco flexibles a cambios y de difícil acceso a información no estructurada.
Debido a la escasez de expertos humanos en determinadas áreas, los SE pueden almacenar su conocimiento para cuando sea necesario poder aplicarlo. Así mismo los SE pueden ser utilizados por personas no especializadas para resolver problemas. Además si una persona utiliza con frecuencia un SE aprenderá de él.
Por otra parte la inteligencia artificial no ha podido desarrollar sistemas que sean capaces de resolver problemas de manera general, de aplicar el sentido común para resolver situaciones complejas ni de controlar situaciones ambiguas.
El futuro de los SE da vueltas por la cabeza de cada persona, siempre que el campo elegido tenga la necesidad y/o presencia de un experto para la obtención de cualquier tipo de beneficio.

ARQUITECTURA BÁSICA DE LOS SISTEMAS EXPERTOS

Base de conocimientos. Es la parte del sistema experto que contiene el conocimiento sobre el dominio. Hay que obtener el conocimiento del experto y codificarlo en la base de conocimientos. Una forma clásica de representar el conocimiento en un sistema experto son lar reglas. Una regla es una estructura condicional que relaciona lógicamente la información contenida en la parte del antecedente con otra información contenida en la parte del consecuente.
Base de hechos (Memoria de trabajo). Contiene los hechos sobre un problema que se han descubierto durante una consulta. Durante una consulta con el sistema experto, el usuario introduce la información del problema actual en la base de hechos. El sistema empareja esta información con el conocimiento disponible en la base de conocimientos para deducir nuevos hechos.
Motor de inferencia. El sistema experto modela el proceso de razonamiento humano con un módulo conocido como el motor de inferencia. Dicho motor de inferencia trabaja con la información contenida en la base de conocimientos y la base de hechos para deducir nuevos hechos. Contrasta los hechos particulares de la base de hechos con el conocimiento contenido en la base de conocimientos para obtener conclusiones acerca del problema.
Subsistema de explicación. Una característica de los sistemas expertos es su habilidad para explicar su razonamiento. Usando el módulo del subsistema de explicación, un sistema experto puede proporcionar una explicación al usuario de por qué está haciendo una pregunta y cómo ha llegado a una conclusión. Este módulo proporciona beneficios tanto al diseñador del sistema como al usuario. El diseñador puede usarlo para detectar errores y el usuario se beneficia de la transparencia del sistema.
Interfaz de usuario. La interacción entre un sistema experto y un usuario se realiza en lenguaje natural. También es altamente interactiva y sigue el patrón de la conversación entre seres humanos. Para conducir este proceso de manera aceptable para el usuario es especialmente importante el diseño del interfaz de usuario. Un requerimiento básico del interfaz es la habilidad de hacer preguntas. Para obtener información fiable del usuario hay que poner especial cuidado en el diseño de las cuestiones. Esto puede requerir diseñar el interfaz usando menús o gráficos.

CICLO DE VIDA DE UN SISTEMA EXPERTO

El ciclo de vida consiste de seis fases. Este ciclo no es fijo. Como los expertos con frecuencia tienen problemas para explicar sus soluciones, los problemas tienen que fraccionarse en subproblemas antes que las soluciones puedan quedar definidas (Weitzel y Kerschberg, 1989).

La fase 1 consiste en encontrar un problema: apropiado para un sistema experto, localizar un experto para contribuir en el conocimiento maestro, establecer un enfoque preliminar, analizar los costos y beneficios y finalmente preparar un plan de desarrollo. La mayor parte de los sistemas expertos se enfocan en una especialidad estrecha. Es importante evitar los problemas que pueden surgir de lo que se indica:

La fase 2 consiste del desarrollo de un prototipo de sistema: El prototipo del sistema es una versión en pequeño del sistema experto diseñado para probar supuestos sobre cómo codificar los hechos, las relaciones y el conocimiento más profundo del campo del conocimiento maestro. Entre otras tareas de esta fase, se incluyen.

La fase 3 es el desarrollo de un sistema completo. El desarrollo de un sistema a escala es probablemente la etapa más compleja del esfuerzo. La estructura central de todo el sistema debe ser determinada; esta es la base de conocimientos debe extenderse a la base de conocimientos totales de manera congruente con el mundo real, y debe desarrollarse la interface con el usuario.
El trabajo principal en esta fase es la suma de un gran número de reglas. La complejidad de todo el sistema crece con el número de reglas y se ve amenazada la integridad del sistema. Se desarrolla un conflicto fundamental en este período entre la fidelidad a la complejidad del mundo real y la comprensibilidad del sistema.

La fase 4 es la evaluación: Cuando el experto y el ingeniero de conocimiento quedan satisfechos de que el sistema está completo, puede ser probado ya contra los criterios de desempeño establecidos en etapas anteriores. Es también tiempo de mostrar el sistema a la institución e invitar a otros expertos a probarlo y presentar nuevos casos.

La fase 5 es la integración del sistema: Una vez construido, el sistema experto debe ser integrado al flujo de los datos y patrones de trabajo de la institución. Normalmente se deben desarrollar nuevos procedimientos, junto con nuevas formas, nuevas subunidades en la organización y nuevos procedimientos de entrenamiento.

La fase 6 es el mantenimiento del sistema. Como cualquier sistema, el ambiente en el que el sistema experto opera está en cambios continuos. Esto significa que el sistema experto debe también cambiar de manera continua. Se sabe muy poco sobre los costos de mantenimiento a largo plazo de los sistemas expertos, y aun se ha publicado menos. Algunos sistemas expertos, en especial los grandes, son tan complejos que en algunos años los costos de mantenimiento habrán igualado los costos de desarrollo. En el caso de XCON, cerca del 30 o 50 por ciento de las reglas se cambian cada año.

CICLO DE VIDA DE UN SISTEMA TRADICIONAL

La metodología del ciclo de vida de los sistemas establece una división muy formal de las actividades de los usuarios finales y de los especialistas de desarrollo de sistemas de información. Los especialistas técnicos, como los analistas de sistemas y los programadores, son responsables de gran parte del trabajo de análisis, diseño e implementación de sistemas; los usuarios finales están limitados a proporcionar los requerimientos de información y a revisar el trabajo del personal técnico.

El siclo de vida de sistemas todavía se usa para construir sistemas complejos grandes que exigen un análisis de requerimientos muy riguroso y formal, especificaciones predefinidas y controles estrictos sobre el proceso de la construcción de sistemas. El ciclo de vida de sistemas tampoco es conveniente para muchos sistemas pequeños de escritorio que, por lo general, son menos estructurados y más individualizados.
Ciclos tradicionales: Son los de más amplia utilización. Dentro de este grupo estarían:
• Modelo en cascada.
• Modelos basados en prototipos:
o Modelo de construcción de prototipos.
o Modelo de desarrollo incremental.
o Modelo de prototipado evolutivo.

viernes, 18 de marzo de 2011

Terremoto Japón 2011: Robots encuentran sobrevivientes

z
Japón es uno de los países con tecnología robótica más avanzada sobre de la tierra, y ello se ve reflejado en los momentos de desastre y catástrofes que acaban de asolar al país del oriente.
Es por este motivo que cuando aparecen este tipo de problemas, son enviados a la acción pequeños autómatas que tienen como misión la búsqueda y recuperación de sobrevivientes en zonas con difícil acceso.
El sitio IEEE Spectrum reporta que dos equipos de robots se encuentran operando en Japón en la zona de desastre, Uno de los equipo está trabajando en la zona de Sendai azotada por el tsunami y el otro en Tokyo.
El primer equipo, dirigido por Satoshi Tadokoro, usará un dispositivo llamado Active Scope Camera, un aparato con cuello de serpiente de ocho metros de largo que se las ingenia para meterse en orificios de hasta 3cm de diámetro, al final de este cuello se encuentra una cámara de vídeo con luz que envía la señal de vídeo a sus operadores.
El segundo equipo está dirigido por Eiji Koyanagi, director del Future Robotics Technology Center en el Instituto Tecnológico de Chiba. El Dr. Koyanagi y su equipo usarán a Quince, un robot plano con ruedas dentadas, el cual cuenta con una cámara y un sensor de dióxido de carbono para detectar la presencia de sobrevivientes en lugares donde los rescatistas no pueden tener acceso.

VIA: http://tecnologia21.com/terremoto-japon-2011-robots-encuentran-sobrevivientes

martes, 15 de marzo de 2011

Un Mouse Anti-Bacterias


No es novedad que día a día se van conociendo mayor cantidad de virus y enfermedades, y lo peor de todo es que esta situación se irá agravando con el correr del tiempo a tal punto que dentro de unos cuantos años, si todo sigue como ahora, deberíamos tomar muchísimos recaudos. Es por ello que, aprovechando esta situación, un obrero metalúrgico diseño y construyo el primer mouse anti bacterias del mundo.
El creador de semejante ratón es el inglés Mark Tur. Aprovechando su habilidad con los metales y basándose en estudios científicos que indican que el 80% de los virus se transmiten por contacto y que las bacterias pueden vivir durante horas en superficies sólidas, construyó este mouse completamente en cobre. Seguramente a esta altura se estarán preguntando por qué en dicho material si también es una superficie sólida, la realidad es que el cobre es un metal muy reconocido en el ámbito científico por sus propiedades anti bacterianas. El cobre reduce entre un 90% y 100% las bacterias que pueden vivir en una superficie del tipo sólido como las que describimos, por lo que el nuevo mouse de Tur sería una excelente iniciativa para combatir el contagio de virus.
Aún no se conoce si este mouse saldrá finalmente al mercado, pero queda demostrado que es una buena solución al contagio de virus y bacterias y seguramente será algo que todos tendremos en un futuro.

Vía: Un mouse anti bacterias http://tecnologia7.net/avances-tecnologicos/un-mouse-anti-vacterias/#ixzz1GiuWUhDe


Para mi punto de vista esto no es tanto un avance tecnologico mas bien es como novedad... En nuestros dias el cobre es un metal muy apreciado y por ello su costo esta en aumento... Por ejemplo un mouse regular de una marca considerable esta a un costo de unos 10 dolares y por el hecho de ser de cobre el costo sera muchisimo mas elevado.

Algunos Analisis de Temas Vinculados con Sistemas Expertos

DEEP BLUE

Deep Blue fue una computadora de IBM que jugaba al ajedrez, la primera que venció a un campeón del mundo vigente, Gary Kaspárov, con un ritmo de juego lento. Esto ocurrió el 10 de febrero de 1996, en una memorable partida. Sin embargo, Kaspárov ganó 3 y empató 2 de las siguientes partidas, derrotando a Deep Blue por 4-2. El encuentro concluyó el 17 de febrero de 1996.

Una nueva versión, llamada Deeper Blue (azul más profundo) jugó de nuevo contra Kaspárov en mayo de 1997, ganando el encuentro a 6 partidas por 3½-2½, lo que lo convirtió en la primera computadora en derrotar a un campeón del mundo vigente, en un encuentro con ritmo de juego de torneo estándar. El encuentro concluyó el 11 de mayo.

El sistema saca su fuerza de juego principalmente en la fuerza bruta que calcula el sistema central. Era una computadora de procesamiento paralelo masivo basada en el RS/6000 con 30 nodos, cada uno con 30 microprocesadores P2SC de 120 MHz, ampliados con 480 procesadores VLSI de uso especial, especializados en ajedrez. Su programa de ajedrez fue escrito en lenguaje C y corrió bajo el sistema operativo AIX. Era capaz de calcular 200 millones de posiciones por segundo, dos veces más rápido que la versión de 1996. En junio de 1997, Deep Blue era el 259º superordenador más poderoso, capaz de calcular 11,38 gigaflops, aunque toda esta potencia no estaba pensada en realidad para jugar al ajedrez.

SEGURIDAD EN LA BANCA ELECTRONICA DEL BANCO PICHINCHA

El Sistema de Ingreso Biométrico consiste en la validación de la manera en la que el cliente digita sus datos al momento de ingresar a Banca Electrónica, garantizando así que la persona que realice las transacciones sea únicamente el propietario de la cuenta.

Adicionalmente el sistema construye, evoluciona y almacena un patrón personal grabando las características de comportamiento y entorno, creando así una huella o una firma única y exclusiva de cada cliente.

El Sistema contempla seguridades adicionales como son: el uso de preguntas y figuras secretas, un sistema de alertas mediante correo electrónico y mensajes SMS que informarán cuando existan intentos errados o ingresos sospechosos a la Banca Electrónica. Estos garantizarán aún más el acceso seguro a la Banca Electrónica.

Esta un poco enfocado a sistemas expertos porque este almacena el comportamiento del usuario que ingresa al sistema y segun eso puede decidir que si el usuario que esta interacuando es el correcto.

WEKA

contiene una colección de herramientas de visualización y algoritmos para análisis de datos y modelado predictivo, unidos a una interfaz gráfica de usuario para acceder fácilmente a sus funcionalidades. La versión original de Weka fue un front-end en TCL/TK para modelar algoritmos implementados en otros lenguajes de programación, más unas utilidades para pre-procesamiento de datos desarrolladas en C para hacer experimentos de aprendizaje automático. Esta versión original se diseñó inicialmente como herramienta para analizar datos procedentes del dominio de la agricultura, pero la versión más reciente basada en Java (WEKA 3), que empezó a desarrollarse en 1997, se utiliza en muchas y muy diferentes áreas, en particular con finalidades docentes y de investigación.

Los puntos fuertes de Weka son:

  • Está disponible libremente bajo la licencia pública general de GNU.
  • Es muy portable porque está completamente implementado en Java y puede correr en casi cualquier plataforma.
  • Contiene una extensa colección de técnicas para pre-procesamiento de datos y modelado.
  • Es fácil de utilizar por un principiante gracias a su interfaz gráfica de usuario.

Weka soporta varias tareas estándar de minería de datos, especialmente, pre-procesamiento de datos, clustering, clasificación, regresión, visualización, y selección. Todas las técnicas de Weka se fundamentan en la asunción de que los datos están disponibles en un fichero plano (flat file) o una relación, en la que cada registro de datos está descrito por un número fijo de atributos (normalmente numéricos o nominales, aunque también se soportan otros tipos). Weka también proporciona acceso a bases de datos vía SQL gracias a la conexión JDBC (Java Database Connectivity) y puede procesar el resultado devuelto por una consulta hecha a la base de datos. No puede realizar minería de datos multi-relacional, pero existen aplicaciones que pueden convertir una colección de tablas relacionadas de una base de datos en una única tabla que ya puede ser procesada con Weka.

Carencias de Weka

Un área importante que actualmente no cubren los algoritmos incluidos en Weka es el modelado de secuencias.

DEEP BLUE

Deep Blue fue una computadora de IBM que jugaba al ajedrez, la primera que venció a un campeón del mundo vigente, Gary Kaspárov, con un ritmo de juego lento. Esto ocurrió el 10 de febrero de 1996, en una memorable partida. Sin embargo, Kaspárov ganó 3 y empató 2 de las siguientes partidas, derrotando a Deep Blue por 4-2. El encuentro concluyó el 17 de febrero de 1996.

Una nueva versión, llamada Deeper Blue (azul más profundo) jugó de nuevo contra Kaspárov en mayo de 1997, ganando el encuentro a 6 partidas por 3½-2½, lo que lo convirtió en la primera computadora en derrotar a un campeón del mundo vigente, en un encuentro con ritmo de juego de torneo estándar. El encuentro concluyó el 11 de mayo.

El sistema saca su fuerza de juego principalmente en la fuerza bruta que calcula el sistema central. Era una computadora de procesamiento paralelo masivo basada en el RS/6000 con 30 nodos, cada uno con 30 microprocesadores P2SC de 120 MHz, ampliados con 480 procesadores VLSI de uso especial, especializados en ajedrez. Su programa de ajedrez fue escrito en lenguaje C y corrió bajo el sistema operativo AIX. Era capaz de calcular 200 millones de posiciones por segundo, dos veces más rápido que la versión de 1996. En junio de 1997, Deep Blue era el 259º superordenador más poderoso, capaz de calcular 11,38 gigaflops, aunque toda esta potencia no estaba pensada en realidad para jugar al ajedrez.

SEGURIDAD EN LA BANCA ELECTRONICA DEL BANCO PICHINCHA

El Sistema de Ingreso Biométrico consiste en la validación de la manera en la que el cliente digita sus datos al momento de ingresar a Banca Electrónica, garantizando así que la persona que realice las transacciones sea únicamente el propietario de la cuenta.

Adicionalmente el sistema construye, evoluciona y almacena un patrón personal grabando las características de comportamiento y entorno, creando así una huella o una firma única y exclusiva de cada cliente.

El Sistema contempla seguridades adicionales como son: el uso de preguntas y figuras secretas, un sistema de alertas mediante correo electrónico y mensajes SMS que informarán cuando existan intentos errados o ingresos sospechosos a la Banca Electrónica. Estos garantizarán aún más el acceso seguro a la Banca Electrónica.

Esta un poco enfocado a sistemas expertos porque este almacena el comportamiento del usuario que ingresa al sistema y segun eso puede decidir que si el usuario que esta interacuando es el correcto.

WEKA

contiene una colección de herramientas de visualización y algoritmos para análisis de datos y modelado predictivo, unidos a una interfaz gráfica de usuario para acceder fácilmente a sus funcionalidades. La versión original de Weka fue un front-end en TCL/TK para modelar algoritmos implementados en otros lenguajes de programación, más unas utilidades para pre-procesamiento de datos desarrolladas en C para hacer experimentos de aprendizaje automático. Esta versión original se diseñó inicialmente como herramienta para analizar datos procedentes del dominio de la agricultura, pero la versión más reciente basada en Java (WEKA 3), que empezó a desarrollarse en 1997, se utiliza en muchas y muy diferentes áreas, en particular con finalidades docentes y de investigación.

Los puntos fuertes de Weka son:

  • Está disponible libremente bajo la licencia pública general de GNU.
  • Es muy portable porque está completamente implementado en Java y puede correr en casi cualquier plataforma.
  • Contiene una extensa colección de técnicas para pre-procesamiento de datos y modelado.
  • Es fácil de utilizar por un principiante gracias a su interfaz gráfica de usuario.

Weka soporta varias tareas estándar de minería de datos, especialmente, pre-procesamiento de datos, clustering, clasificación, regresión, visualización, y selección. Todas las técnicas de Weka se fundamentan en la asunción de que los datos están disponibles en un fichero plano (flat file) o una relación, en la que cada registro de datos está descrito por un número fijo de atributos (normalmente numéricos o nominales, aunque también se soportan otros tipos). Weka también proporciona acceso a bases de datos vía SQL gracias a la conexión JDBC (Java Database Connectivity) y puede procesar el resultado devuelto por una consulta hecha a la base de datos. No puede realizar minería de datos multi-relacional, pero existen aplicaciones que pueden convertir una colección de tablas relacionadas de una base de datos en una única tabla que ya puede ser procesada con Weka.

Carencias de Weka

Un área importante que actualmente no cubren los algoritmos incluidos en Weka es el modelado de secuencias.