<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:dc="http://purl.org/dc/elements/1.1/" version="2.0">
<channel>
<title>Doctorado en Ciencias Aplicadas</title>
<link>https://repositorioinstitucional.uaslp.mx/xmlui/handle/i/5033</link>
<description/>
<pubDate>Wed, 15 Apr 2026 10:37:47 GMT</pubDate>
<dc:date>2026-04-15T10:37:47Z</dc:date>
<item>
<title>Simultaneous first-price auctions for complementary goods and some applications</title>
<link>https://repositorioinstitucional.uaslp.mx/xmlui/handle/i/8339</link>
<description>Simultaneous first-price auctions for complementary goods and some applications
Flores Zarur, Karla
En esta tesis mostramos diferentes Equilibrios Bayesianos Simétricos para&#13;
un contexto de m subastas simultáneas cerradas del primer precio y n postores&#13;
por bienes complementarios. El Capítulo 3 consideramos que las valoraciones&#13;
individuales de los m diferentes bienes son de conocimiento común e idénticas&#13;
entre los individuos y, de llegarse a obtener el conjunto completo de bienes por&#13;
un mismo comprador, un valor privado e independientes es obtenido por éste individuo. En el Capítulo 4, analizamos un problema de m subastas simultaneas&#13;
cerradas del primer precio por bienes complementarios idénticos. Adicionalmente ofrecemos un análisis del rendimiento esperado del vendedor para cada&#13;
caso. Finalmente, en el Capítulo 5 desarrollamos dos aplicaciones de juegos&#13;
Bayesianos aplicado al contexto de Cadenas de Suministro.; This thesis shows different Symmetrical Bayesian Nash Equilibrium in a&#13;
context of m simultaneous first-price sealed-bid auctions and n bidders for complementary goods. In Chapter 3, we consider that the individual valuations of&#13;
the m different goods are common knowledge and identical among bidders and if&#13;
the whole set of goods is gained by the same buyer, a private independent extra&#13;
profit is obtained by this buyer. In Chapter 4, we develop a problem where we&#13;
have m simultaneous first-price sealed-bid auction, for identical complementary&#13;
items. On addition, we provide an analysis of the seller expected revenue for&#13;
each case. Finally, in Chapter 5 we develop two applications of Bayesian games&#13;
in supply chains.
</description>
<pubDate>Sat, 01 Apr 2023 00:00:00 GMT</pubDate>
<guid isPermaLink="false">https://repositorioinstitucional.uaslp.mx/xmlui/handle/i/8339</guid>
<dc:date>2023-04-01T00:00:00Z</dc:date>
</item>
<item>
<title>Estudio de propiedades topológicas de redes complejas</title>
<link>https://repositorioinstitucional.uaslp.mx/xmlui/handle/i/8016</link>
<description>Estudio de propiedades topológicas de redes complejas
Castillo Castillo, Pedro
Un grafo o red en su definición más simple es un conjunto de puntos y lineas [57]. El cual tiene propiedades topológicas como son: El diámetro del grafo, el coeficiente de agrupamiento y la distribución de conectividad. El diámetro del grafo, es la distancia más larga de las distancias más cortas de un vértice origen a un destino. Un triángulo esta formado por tres vértices interconectados, entonces el coeficiente de agrupamiento, es la sumatoria de todos los triángulos que tiene un grafo entre todos los triángulos posibles que puede tener el grafo. La distribución de probabilidad se obtiene de la conectividad que tiene cada vértice del grafo. La teoría de grafos aleatorios de Erdós &amp; Rényi, fue desarrollada en 1959, donde la teoría mostraba herramientas para grafos aleatorios sin crecimiento y con crecimiento, las cuales fueron de gran utilidad para hacer estudios más profundos sobre grafos y retomar algunos estudios de los que se quedaron inconclusos, también aparecieron las computadoras que ayudaron a que se procesaran más datos y con ello hacer estudios con mayor volumen de información, como fueron los estudios que se hicieron sobre el Internet, la www y cita de artículos a finales de los 90’s, entonces se demostró que las redes reales no se comportaban como redes aleatorias, ya que mostraban otras propiedades que no tienen las redes aleatorias como son un diámetro corto, una distribución de conectividad en forma ley de potencia, etc.  Motivado por estos resultados, el Dr. Barabási en 1999, propone el primer modelo de crecimiento de red compleja, el cual es un modelo de red sencillo con crecimiento por agregación y conectividad preferencial, del cual se pudo obtener una distribución de conectividad en forma de ley de potencia y que sirvió de estímulo para que otros investigadores que se dieron a la tarea de proponer nuevos modelos donde se pudieran mostrar otras propiedades de las redes complejas, y se acercaran a las redes reales, tales como el recableado, aptitud, atractivo inicial, etc. Lo cual los ayudó a entender mejor a las redes, ya que hay redes reales con la propiedad de nacimiento y muerte de enlaces, como es el Internet, www, etc. y también redes reales sin nacimiento ni muerte de enlaces, como son la cita de artículos y la cita de patentes de Estados Unidos, y que, sin embargo, de las redes reales se puede obtener una distribución de conectividad ley de potencia de enlaces entrantes y de enlaces salientes. Para poder contribuir con un granito de arena en estos estudios de redes, se estudiaron muchos modelos ya propuestos hasta ahora y se descubrió que muestran una distribución ley potencia de los enlaces entrantes, y que los modelos que muestran una distribución de los enlaces salientes tienen nacimiento y muerte de enlaces. Se puede explicar como obtener una distribución ley de potencia en los enlaces entrantes debido a la conectividad preferencial, pero no se puede explicar como generar una distribución de enlaces salientes en forma de ley potencia. Por lo tanto, se revisó el modelo de copiado de Krapivsky [47], ya que el copiado podría servir para obtener ese resultado, sin embargo, el resultado que se obtuvo fue una distribución exponencial de los enlaces salientes, también se revisó el modelo propuesto por Ameerah [2], el cual se basa en krapivsky [45] y si se obtiene la distribución ley de potencia en el outdegree, pero artificiosamente se obtiene el número de enlaces salientes del nodo nuevo, lo cual no es natural. De manera que, no existe un modelo de red sin nacimiento y muerte de enlaces, y que se pueda obtener una distribución en forma de ley de potencia de enlaces salientes y entrantes. Por eso mi principal objetivo es proponer un modelo de crecimiento de red compleja donde se pueda obtener una distribución ley de potencia de enlaces entrantes y salientes, y que la red no acepte nacimiento y muerte de enlaces en nodos existentes. Para esto, se creó un modelo de crecimiento de red compleja con probabilidad p, donde con probabilidad p, se selecciona un nodo aleatorio y se copian sus enlaces, y con probabilidad 1 − p, se selecciona un número aleatorio de enlaces, el número aleatorio de enlaces está entre 1 : N nodos, se obtiene como resultado una distribución de enlaces entrantes en forma de ley de potencia cuando la probabilidad p → 1 y en los demás valores de p, una distribución de enlaces entrantes en forma exponencial. Se analizó el grado de los nodos en este modelo, y se observó que se incrementa conforme aumenta el número total de nodos en la red, a este fenómeno se le conoce como aceleración [24] y también produce un efecto en la distribución de enlaces entrantes, en el que de una red 1000 a 10,000 nodos varía el exponente, por ejemplo en este modelo tenemos con probabilidad p = 0.99, en una red de 1000 nodos se obtiene una distribución de enlaces entrantes con exponente γin ≈ 3.3 y con 10,000 nodos se obtiene un exponente γin ≈ 4.3. Para poder comparar los resultados del modelo con redes reales, se revisó los datos de la red cita de patentes de los Estados Unidos (Respaldo de cita de patentes desde el año 1975 a 1999), en la cual cuando se crea una patente, se cita a patentes ya existentes, pero a una patente que ya existe no se le puede agregar o eliminar las citas que haya hecho a otras patentes, por esta razón, esta red no tiene nacimiento ni muerte de enlaces, se obtuvo su distribución de enlaces salientes para 106 nodos y para 2 ∗ 106 nodos y se pudo observar que varia el exponente de la distribución de enlaces salientes en forma de ley de potencia.
</description>
<pubDate>Fri, 01 Jan 2021 00:00:00 GMT</pubDate>
<guid isPermaLink="false">https://repositorioinstitucional.uaslp.mx/xmlui/handle/i/8016</guid>
<dc:date>2021-01-01T00:00:00Z</dc:date>
</item>
<item>
<title>Espectroscopía Raman para caracterizar e identificar biomarcadores</title>
<link>https://repositorioinstitucional.uaslp.mx/xmlui/handle/i/8018</link>
<description>Espectroscopía Raman para caracterizar e identificar biomarcadores
Hernández Vidales, Karen
La espectroscopía Raman es una técnica mediante la cual se capta la luz que ha sido esparcida inelásticamente por un medio de interés, gracias a que esta luz trae consigo información a nivel molecular, es posible obtener un espectro único característico del material. Una de sus principales aplicaciones es la caracterización e identificación de biomoléculas, especialmente biomarcadores, ya que es posible diferenciarlos: ya sea que correspondan a estados óptimos de salud o a estados en los que se presenta alguna enfermedad. La espectroscopía Raman se proyecta como una técnica que puede ser usada clínicamente para mejorar los diagnósticos médicos de una forma rápida y no invasiva. El cáncer requiere de diagnósticos certeros y rápidos, su detección temprana puede ser determinante para la sobrevivencia del paciente por lo que diversos biomarcadores están siendo investigados, dos de ellos la proteína p53 (en su estado natural y sus mutaciones) y el aminoácido L-Asparagina; los cuales, particularmente en esta tesis, se han estudiado mediante espectroscopía Raman. La proteína p53 en su estado natural tiene la capacidad de reparar el ADN de células dañadas o bien conducirlas hacia la muerte antes de que el daño prolifere, sin embargo, cuando ocurren mutaciones hay mayor probabilidad de que se desarrollen tumores. Poder identificar y diferenciar entre la proteína p53 natural y sus mutantes con métodos de detección sencillos, puede significar un avance importante en la detección temprana del cáncer. Las células cancerígenas de leucemia linfoblástica aguda se alimentan del aminoácido L-Asparagina, los tratamientos anti-leucemia incluyen métodos para su eliminación, sin embargo, a la fecha no existe un método certero y sencillo que permita monitorear la biodisponibilidad de este aminoácido durante el tratamiento. Mediante espectroscopía Raman, métodos de análisis multivariable y de aprendizaje automático, en este trabajo se determinó el límite de detección para identificar a la proteína p53 y se logró diferenciar entre la proteína p53 natural y tres de sus mutantes: R273H, E343A y L344A. Además, se probaron diferentes superficies con L-Asparagina para aplicar espectroscopía Raman mejorada por superficies y caracterizar el espectro del aminoácido.; Raman spectroscopy is a technique by which the light scattered inelastically is obtained and studied. This light brings information from the molecular level, making it possible to get a unique spectrum for the material under examination. One of the applications of Raman spectroscopy is the characterization and identification of biomolecules, particularly biomarkers, since it is feasible to differentiate among them; either they correspond to optimal states of health or to conditions in which some disease occurs. Raman spectroscopy is projected as a technique that can be used clinically to improve medical diagnosis quickly and noninvasively. Cancer requires accurate and rapid diagnoses; its early detection can be decisive for the patient's survival. Various biomarkers are being investigated, two of them the p53 protein (wild type and mutants) and the amino acid L-Asparagine, particularly in this thesis through Raman spectroscopy. The p53 wild-type protein repairs the DNA in damaged cells or leads them to death before damage proliferates. However, when mutations occur, tumors are more likely to develop. Identifying and differentiating between wild-type p53 protein and its mutants with simple detection methods can be an essential step towards the early detection of cancer. Cancer cells of acute lymphoblastic leukemia feed on the amino acid L-Asparagine; antileukemia treatments include strategies for its elimination. However, no accurate and straightforward method allows monitoring the bioavailability of this amino acid during treatment. Utilizing Raman spectroscopy, multivariate analysis, and machine learning, the detection limit for the p53 protein was determined in this work. It was possible to differentiate between the wild-type protein and three mutants: R273H, E343A, and L344A. Different surfaces were tested with L-Asparagine to apply surfaceenhanced Raman spectroscopy and characterize the amino acid spectrum.
</description>
<pubDate>Fri, 01 Jan 2021 00:00:00 GMT</pubDate>
<guid isPermaLink="false">https://repositorioinstitucional.uaslp.mx/xmlui/handle/i/8018</guid>
<dc:date>2021-01-01T00:00:00Z</dc:date>
</item>
<item>
<title>Two problems about convex polygons in discrete geometry</title>
<link>https://repositorioinstitucional.uaslp.mx/xmlui/handle/i/8019</link>
<description>Two problems about convex polygons in discrete geometry
Lomelí Haro, Mario
En este trabajo abordamos dos problemas sobre polígonos convexos, con vértices en un conjunto finito de puntos en el plano, en posición general. En el primer problema, obtenemos el dibujo rectilíneo de la gráfica completa, con vértices en la colección de puntos dada, y colorearemos las aristas de acuerdo a la siguiente regla: para cualesquiera dos aristas, si sus cerraduras son disjuntas, entonces deben tener diferente color. Estudiaremos el número de colores necesarios y suficientes que debe tener cualquier coloración de este tipo. En este trabajo, encontramos el número de colores necesarios y suficientes para colorear las aristas de la gráfica completa, cuando los vértices están en la doble cadena. Cabe mencionar que, este problema estaba resuelto únicamente para cuando la colección de puntos es el conjunto de vértices de un polígono convexo. Probaremos que si coloreamos, de manera óptima, las aristas con extremos en la cadena mayor, y posteriormente, seleccionando cada vértice restante, y coloreando del mismo color sus aristas incidentes, entonces el número de colores empleados es el óptimo. De nuestro resultado, conjeturamos que, para obtener una coloración óptima en cualquier colección de puntos, se procede de manera semejante: colorear, de manera óptima, las aristas con extremos en el polígono convexo más grande, y posteriormente, seleccionando cada vértice para colorear de un solo color todas las aristas incidentes a él. Formalmente, estamos coloreando, de manera óptima, la gráfica de disjuntez GD = (VD, ED), inducida de un conjunto P de puntos en el plano en posición general. Obtenemos a GD de la siguiente manera: tomamos el dibujo rectilíneo D de K|P| = (P, E) y hacemos VD = E, y ED = {ee′ : las cerraduras de e y de e ′ no se intersectan en D}. Que, como mencionamos, tal número cromático sólo es conocido para cuando P es el conjunto de vértices de un polígono convexo. Probamos que la gráfica de disjuntez, en la doble cadena, tiene un número cromático sustancialmente más grande que el que se conoce. En el segundo problema que estudiamos, nos interesa que los polígonos sean vacíos, y no necesariamente buscamos el más grande. Buscamos particionar el cierre convexo del conjunto de puntos dado P con polígonos con vexos, con interiores disjuntos, cuyos vértices estén en P. A este conjunto de polígonos se le llama descomposición convexa. Estamos interesados en descomposiciones convexas de cardinalidad mínima. Por poner un ejemplo, tenemos a las triangulaciones: descomposiciones convexas cuyos elementos, desde luego, son triángulos. El número de elementos en una triangulación es bien conocido. Si pudiéramos encontrar una descomposición convexa cuyos elementos fueran cuadriláteros, su cardinalidad sería la de una triangulación dividida por dos. Pero es fácil encontrar colecciones de puntos que no admiten cuadrilaterizaciones, en las que todos sus elementos sean convexos. Partiremos de una triangulación específica y encontraremos aristas que pueden ser eliminadas para obtener polígonos convexos más grandes, reduciendo la cardinalidad de la descomposición.; In this work we study two problems involving convex polygons with its vertices in a given point set. In the first problem, we obtain a rectilinear drawing of the complete graph and color the edges according to the unique rule: for any given two edges, if their closures are disjoint, then they must have different color. We analyze how to color all the edges using as fewest colors as possible, when the set of vertices is the double chain. We prove that to use the fewest colors, first, we color the edges with its endpoints in the biggest convex chain in an optimal way, and second, we select every remaining point and color all of its incident edges with a new different color. We conjecture that the optimal way of coloring the edges of the complete graph with vertices in any given point set is similar: first obtain the biggest subset of points in convex position (without caring if it is empty or has another elements in its interior) to color all its incident edges in an optimal way, and second, color the remaining edges by coloring with one different color all the edges incident with each of the remaining vertices. Formally, we are studying the chromatic number of the edge disjointness graph of the complete graph, with its vertex set in a given point set. As far as we know, such chromatic number is only known when the point set is the set of vertices of a convex polygon. In the double chain we obtain a number substantially bigger than the previous one. In the second problem, we care if the polygons are empty, and we may not be interested in the biggest one, we are interested in decompose the convex hull using the smallest number of empty interior disjoint convex polygons, with vertices in the given point set. Specifically, we give an upper bound on the number of these polygons. Such set of polygons is called Convex Decomposition. For instance, a triangulation is a convex decomposition in which every element, obviously, is a triangle. The number of triangles obtained is well known. If we could decompose in quadrilaterals, the number of elements, would be the number of triangles divided by two; if we could decompose in pentagons, the number of elements would be the number of triangles divided by three, etcetera. But its easy to find point sets that do not admit a convex decomposition containing only quadrilaterals (and hence only pentagons, or only hexagons, and so on). So we are allowing different polygons. It is known that, in any triangulation always we can find pairs of triangles that can be joined to obtain convex quadrilaterals. We use this idea to obtain bigger convex polygons, such pentagons or hexagons, and get a better upper bound. By the nature of the problems we study in this work, we remark that, all the point sets we consider have no three or more elements on a line.
</description>
<pubDate>Fri, 01 Jan 2021 00:00:00 GMT</pubDate>
<guid isPermaLink="false">https://repositorioinstitucional.uaslp.mx/xmlui/handle/i/8019</guid>
<dc:date>2021-01-01T00:00:00Z</dc:date>
</item>
</channel>
</rss>
