Recursos de colección

Universidad Nacional de La Plata (74.783 recursos)

Este servicio se brinda en el marco del Proyecto de Enlace de Bibliotecas (PrEBi) y significa una novedosa iniciativa en pos de la difusión a través de Internet, dentro y fuera del ámbito de la Universidad, de los conocimientos que en ella se generan para servir como vehículo de promoción y jerarquización. Los objetivos que se han planteados para SeDiCI son sumamente ambiciosos e incluyen la difusion electrónica de tesis, tesinas y disertaciones pero también de otros tipos de creaciones intelectuales, pretendiendo abarcar la ciencia, la tecnología y el arte buscando modos de presentación no solo de objetos en forma de documentos de texto sino también otros medios multimediales aptos para creaciones no documentales.

CACIC 2016

Mostrando recursos 1 - 20 de 136

  1. An exploratory analysis of methods for extracting credit risk rules

    Jimbo Santana, Patricia; Villa Monte, Augusto; Rucci, Enzo; Lanzarini, Laura Cristina; Bariviera, Aurelio
    This paper performs a comparative analysis of two kind of methods for extracting credit risk rules. On one hand we have a set of methods based on the combination of an optimization technique initialized with a neural network. On the other hand there are partition algorithms, based on trees. We show results obtain on two real databases. The main findings are that the set of rules obtained by the first set of methods give a set of rules with a reduced cardinality, with an acceptable precision regarding classification. This is a desirable property for financial institutions, who want to decide credit...

  2. Approximate Nearest Neighbor Graph via Index Construction

    Chávez, Edgar; Ludueña, Verónica; Reyes, Nora Susana; Kasián, Fernando
    Given a collection of objects in a metric space, the Nearest Neighbor Graph (NNG) associate each node with its closest neighbor under the given metric. It can be obtained trivially by computing the nearest neighbor of every object. To avoid computing every distance pair an index could be constructed. Unfortunately, due to the curse of dimensionality the indexed and the brute force methods are almost equally inefficient. This bring the attention to algorithms computing approximate versions of NNG. The DiSAT is a proximity searching tree. It is hierarchical. The root computes the distances to all objects, and each child node of the root...

  3. Distal Dynamic Spatial Approximation Forest

    Chávez, Edgar; Di Genaro, María; Reyes, Nora Susana; Roggero, Patricia
    Querying large datasets by proximity, using a distance under the metric space model, has a large number of applications in multimedia, pattern recognition, statistics, etc. There is an ever growing number of indexes and algorithms for proximity querying, however there is only a handful of indexes able to perform well without user intervention to select parameters. One of such indexes is the Distal Spatial Approximation Tree (DiSAT) which is parameter-less and has demonstrated to be very efficient outperforming other approaches. The main drawback of the DiSAT is its static nature, that is, once built, it is difficult to add or...

  4. LSA64: An Argentinian Sign Language Dataset

    Ronchetti, Franco; Quiroga, Facundo; Estrebou, César Armando; Lanzarini, Laura Cristina; Rosete, Alejandro
    Automatic sign language recognition is a research area that encompasses human-computer interaction, computer vision and machine learning. Robust automatic recognition of sign language could assist in the translation process and the integration of hearing-impaired people, as well as the teaching of sign language to the hearing population. Sign languages differ significantly in different countries and even regions, and their syntax and semantics are different as well from those of written languages. While the techniques for automatic sign language recognition are mostly the same for different languages, training a recognition system for a new language requires having an entire dataset for that...

  5. Vector-based word representations for sentiment analysis: a comparative study

    Villegas, María Paula; Garciarena Ucelay, María José; Fernández, Juan Pablo; Álvarez Carmona, Miguel A.; Errecalde, Marcelo Luis; Cagnina, Leticia
    New applications of text categorization methods like opinion mining and sentiment analysis, author profiling and plagiarism detection requires more elaborated and effective document representation models than classical Information Retrieval approaches like the Bag of Words representation. In this context, word representation models in general and vector-based word representations in particular have gained increasing interest to overcome or alleviate some of the limitations that Bag of Words-based representations exhibit. In this article, we analyze the use of several vector-based word representations in a sentiment analysis task with movie reviews. Experimental results show the effectiveness of some vector-based word representations in comparison...

  6. Búsqueda por similitud de posiciones de ajedrez

    González, Diego; Pascal, Andrés; De Battista, Anabella; Herrera, Norma Edith
    Las búsquedas por similitud constituyen un campo de estudio de gran importancia en la actualidad. En el presente trabajo se propone una función distancia para consultar por similitud posiciones de ajedrez sobre bases de datos de partidas, ya que actualmente estas consultas están limitadas a búsquedas exactas. Se evalúa su comportamiento mediante distintos tipos de pruebas sobre las fases del juego.

  7. Wild Cetacean Identification using Image Metadata

    Pollicelli, Débora; Coscarella, Mariano; Delrieux, Claudio
    Identification of individuals in marine species, especially in Cetacea, is a critical task in several biological and ecological endeavours. Most of the times this is performed through human-assisted matching within a set of pictures taken in different campaigns during several years and spread around wide geographical regions. This requires that the scientists perform laborious tasks in searching through archives of images, demanding a significant cognitive burden which may be prone to intra and inter observer operational errors. On the other hand, additional available information, in particular the metadata associated to every image, is not fully taken advantage of. The present...

  8. Algoritmo de clustering basado en el concepto de densidad atómica

    Monroy Medina, Oscar Andrés
    El análisis de clúster o Clustering agrupa un conjunto de objetos de datos en clústers o grupos de manera que en cada grupo los objetos sean similares entre si y disimiles de los objetos de otros grupos. En la actualidad, existen distintas técnicas de agrupamiento que permiten cumplir con esta tarea. En búsqueda de un algoritmo más natural se hizo uso del concepto de densidad atómica de los elementos como base para generar uno nuevo. El algoritmo propuesto tiene como ventajas, poseer un método concreto de selección de centroides, además de tener mejores agrupamientos que otros algoritmos basados en centroides...

  9. Estudio comparativo de algoritmos de minería de subgrafos frecuentes

    Bianco, Santiago; Martins, Sebastián; García Martínez, Ramón
    Dentro las técnicas de minería de grafos se encuentran las correspondientes a búsqueda de subgrafos frecuentes. Existen varios algoritmos orientados a reconocer subestructuras comunes entre un conjunto de grafos entre los que destacan: FSG, FFSM, gSpan y GASTON. El objetivo de esta investigación es analizar el comportamiento de estos algoritmos a través de distintos experimentos diseñados para identificar si existe un algoritmo superior al resto y, en caso de que no lo haya, poder definir en qué escenarios es más recomendable la elección de cada uno.

  10. Clasificación de distintos conjuntos de datos utilizados en evaluación de métodos de extracción de conocimiento creados para la web

    Bianco, Santiago; Martins, Sebastián; García Martínez, Ramón
    En varios artículos se han utilizado distintos textos de prueba, como datos de entrada para medir el desempeño de los métodos de extracción de relaciones semánticas para la Web (OIE): ReVerb y ClausIE. Sin embargo estos textos nunca han sido analizados para entender si ellos guardan o no similitudes o para saber si existe entre ellos un lenguaje común o pertenecen a un mismo dominio. Es la intención de este trabajo analizar dichos textos utilizando distintos algoritmos de clasificación. Y comprender si se pueden agrupar de una forma coherente, de tal suerte que a priori uno pueda identificar que textos...

  11. Proceso de descubrimiento de patrones de co-localización alrededor de tipos de eventos de referencia

    Róttoli, Giovanni; Merlino, Hernán; García Martínez, Ramón
    El descubrimiento de patrones de co-localización revela subconjuntos de tipos de eventos espaciales cuyas instancias ocurren frecuentemente vecinas entre sí. Muchos algoritmos y métodos han sido desarrollados a través de los años, sin embargo, cuando se requiere encontrar estos patrones alrededor de tipos de eventos espaciales determinados, la alternativa existente resulta incompleta e incorrecta. En el presente trabajo, en consecuencia, se desarrolla un proceso de explotación de información para el descubrimiento de patrones de co-localización alrededor de tipos de eventos espaciales de referencia que utiliza cliques máximos y algoritmos TDIDT para brindar una solución a este problema. Se presenta una...

  12. Proceso de descubrimiento de reglas de caracterización de grupos espacialmente referenciados

    Róttoli, Giovanni; Merlino, Hernán; García Martínez, Ramón
    El descubrimiento de grupos sobre información espacialmente referenciada es un tema de interés en minería de datos espaciales. Los algoritmos existentes se orientan a descubrir tres tipos de grupos: regiones, grupos propiamente dichos, y zonas calientes. Sin embargo, no dan una caracterización de dichos grupos. El presente trabajo propone un proceso de descubrimiento de reglas de caracterización de grupos espacialmente referenciados que utiliza algoritmos TDIDT para obtener las características que fueron elegidas automáticamente para la generación de los mismos. Se presentan pruebas de concepto en las que se utilizan distintos algoritmos de agrupamiento espacial.

  13. Data Matching and Deduplication Over Big Data Using Hadoop Framework

    Albanese, Pablo Adrián; Ale, Juan M.
    Entity Resolution is the process of matching records from more than one database that refer to the same entity. In case of a single database the process is called deduplication. This article proposes a method to solve entity resolution and deduplication problem using MapReduce over Hadoop framework. The proposed method includes data preprocessing, comparison and classification tasks indexing by standard blocking method. Our method can operate with one, two or more datasets and works with semi structured or structured data.

  14. On the Assessment of Information Quality in Spanish Wikipedia

    Urquiza, Guido; Soria, Matías; Pérez Casseignau, Sebastián; Ferretti, Edgardo; Gomez, Sergio A.; Errecalde, Marcelo Luis
    Featured Articles (FA) are considered to be the best articles that Wikipedia has to offer and in the last years, researchers have found interesting to analyze whether and how they can be distinguished from “ordinary” articles. Likewise, identifying what issues have to be enhanced or fixed in ordinary articles in order to improve their quality is a recent key research trend. Most of the approaches developed in these research trends have been proposed for the English Wikipedia. However, few efforts have been accomplished in Spanish Wikipedia, despite being Spanish, one of the most spoken languages in the world by native...

  15. Estimación del plano anestésico en elefante marinos del sur utilizando técnicas de Machine Learning

    Zàrate, Marcos; Lewis, Mirtha Noemí
    Prediction systems are techniques that build and study new forecasts through a branch of the artificial intelligence called Machine Learning. In this work we intend to estimate the time that remains anesthetized an southern elephant seal to which you have applied a combination of drugs (Zoletil®), the fundamental objective of anesthesia is to avoid risky situations to researchers studying this species. To know these times data mining techniques and algorithms used particular classification algorithms were compared J4.8, SMO, Random Tree, NBTree y Naïve Bayes with data mining tool Weka and a data set containing the records of 96 individuals undergoing...

  16. Clustering de un flujo de datos usando MapReduce

    Basgall, María José; Hasperué, Waldo; Estrebou, César Armando; Naiouf, Marcelo
    Las técnicas de agrupamiento (clustering) sobre flujo de datos (data stream) son una poderosa herramienta para determinar las características que tienen en común los datos provenientes del flujo. Para obtener buenos resultados es necesario almacenar gran parte de éste en una ventana temporal. En este artículo medimos una técnica que maneja el tamaño de la ventana temporal de manera dinámica utilizando un algoritmo de clustering implementado en el framework MapReduce. Los resultados obtenidos demuestran que esta técnica alcanza una ventana de gran tamaño logrando así que cada dato del flujo se utilice en más de una iteración del algoritmo de clustering...

  17. Construcción de una vista minable para aplicar minería de datos secuenciales temporales

    Quinteros, Oscar Eduardo; Funes, Ana; Ahumada, Hernán César
    Sobre datos de exámenes rendidos y aprobados de las materias del Ciclo Común de Articulación (CCA) de las carreras de Ingeniería de la Facultad de Tecnología y Ciencias Aplicadas, se propone conformar la vista minable apropiada para la aplicación de métodos de minería de secuencias temporales, como parte de en un proyecto de extracción de conocimiento. El proceso de elaboración de esta vista minable se lleva a cabo siguiendo las actividades de la fase de selección y preparación de datos, según la metodología CRISP-DM. Una vez definidos los elementos de la secuencia, Identificador, Tiempo y Evento, se genera una vista...

  18. Diseño de bases de datos basadas en documento: modelo de interrelación de documentos

    Rossel, Gerardo; Manna, Andrea
    Las bases de datos no relacionales han experimentado en los últimos años un importante crecimiento, particularmente las bases de datos basadas en documento. A partir de la amplia adopción de este tipo de modelo de almacenamiento, aumenta la necesidad de contar con herramientas de modelización adecuadas. En este trabajo presentamos una metodología de modelización conceptual y de diseño de este tipo de bases de datos, para lo cual proponemos además la realización de un tipo de diagrama que denominamos diagrama de Interrelación de documentos o DID.

  19. Computer Aided Verification of Relational Models

    Necco, Claudia Mónica; Oliveira, José R.; Visser, Joost; Uzal, Roberto
    Binary relational algebra provides semantic foundations for major areas of computing, such as database design, state-based modeling and functional programming. Remarkably, static checking support in these areas fails to exploit the full semantic content of relations. In particular, properties such as the simplicity or injectivity of relations are not statically enforced in operations such as database queries, state transitions, or composition of functional components. When data models, their constraints and operations are represented by point-free binary relational expressions, proof obligations can be expressed as inclusions between relational expressions.We developed a type-directed, strategic term rewriting system that can be used to simplify...

  20. Una metodología para evaluar la madurez de servicios universitarios

    Pasini, Ariel C.; Estévez, Elsa Clara; Pesado, Patricia Mabel; Boracchia, Marcos
    Este trabajo introduce el concepto de Gobierno Electrónico Universitario y Servicio Universitario y propone una metodología para la evaluación de la madurez de dichos servicios aplicando conceptos de gobierno electrónico. En base a una identificación de 25 servicios básicos prestados por unidades académicas (UAs), que pueden ser parametrizados según el contexto, se define un nivel de madurez máximo que el servicio puede llegar a obtener en función a la automatización del mismo. La metodología y el modelo propuesto permiten hacer un diagnóstico y planificar posibles mejoras a la prestación de servicios prestados por las universidades a miembros de sus comunidades.

Aviso de cookies: Usamos cookies propias y de terceros para mejorar nuestros servicios, para análisis estadístico y para mostrarle publicidad. Si continua navegando consideramos que acepta su uso en los términos establecidos en la Política de cookies.