br Francisco Javier Alejo L pez Graduado con honores en

Francisco Javier Alejo López
Graduado con honores en Economía de la unam; post-grado (equivalente dgat inhibitor Maestría) en Planificación Económica y Social en el ilpes de la onu y estudios para el Doctorado en Economía en la Universidad de Oxford. Profesor de Métodos Matemáticos, Desarrollo Económico y Política Fiscal en la ene/unam; Director de la Maestría en Economía y Profesor de Teoría Económica en El Colegio de México; Profesor de Historia y Desarrollo Económicos en el itam. Diseño, creación y Dirección General del cide. Director General del Fondo de Cultura Económica; Subsecretario de Ingresos de la shcp y de Promoción y Fomento de la Secretaría de Turismo; Secretario del Patrimonio Nacional; Director General del Combinado Industrial Sahagún y de Caminos y Puentes Federales de Ingreso; Vice-Presidente de la Corporación Financiera Internacional del Banco Mundial; Embajador de México ante Japón, la República de Corea e Italia. Presidente de la Conferencia de Panamá creadora del Sistema Económico Latinoamericano y Presidente de la Delegación Mexicana en la Primera Conferencia Norte Sur en París. Ha publicado tres libros y más de cien artículos sobre temas económicos, políticos y sociales, nacionales e internacionales. Recibió el Premio Nacional de Economía 1971.

Manuel Aguilera Gómez
Se ha desempeñado como Presidente del Colegio Nacional de Economistas, Director de la Facultad de Economía de San Luis Potosí, investigador del Centro de Estudios Monetarios para Latinoamérica, y Director del Instituto de Seguridad y Servicios Sociales de los Trabajadores del Estado (issste), Instituto Mexicano del Café (Inmecafé) y Tabacos Mexicanos (Tabamex), entre otros cargos relevantes. También ha sido Senador de la República, Diputado Federal, asambleísta en la Legislatura del Distrito Federal, Regente de la Ciudad de México y miembro del Comité Ejecutivo Nacional del Partido Revolucionario Institucional (pri) del cual fue presidente en el comité directivo del D.F. en dos ocasiones.

Ramón Carlos Torres Flores
Investigador del Programa Universitario de Estudios del Desarrollo de la unam, su línea de investigación está enfocada a growth rings temas de energía, planeación del desarrollo y medio ambiente. Realizó sus estudios de economía en la unam donde obtuvo el grado de Licenciado en Economía; el Diplomado en Planificación del Desarrollo y Evaluación de Proyectos en el ilpes-onu y la Maestría en Administración Pública en la Universidad de Harvard. Ha sido Director General de Energía y Actividades Extractivas en la Semarnat, Coordinador Ejecutivo de Planeación Petroquímica y Gerente de Promoción Industrial en Pemex, Director de Promoción de Proyectos y Gerente de Programación Industrial en Nafinsa, entre otros cargos, Economista en la cepal y consultor en organizaciones internacionales como onudi, unctad, geplacea y el pnud. También ha desempeñado puestos de responsabilidad ejecutiva en empresas fabricantes de bienes de capital. Ha sido docente en las escuelas de economía de la unam, del itam y de la Universidad Anáhuac, así como en la Maestría en Administración, Planeación y Economía de los Hidrocarburos en la esia del ipn.

a los estudiosos de la historia de M xico

ace inhibitor los estudiosos de la historia de México un fuente rica para conocer no sólo la vida y obra de un personaje de la historia del país sino las épocas históricas en las cuales actuó: en la Guerra de Independencia, en la creación del primer imperio y la primera República. Años convulsos que corresponden a la época de formación del Estado Nación en México.
contenido del libro de 626 páginas, que rescata y ofrece a los estudiosos de la historia una fuente documental para conocer los aspectos de la vida, obra y participación don Juan Cruz de Cabañas y Crespo en los destinos de México cuando emerge como nación independiente. Un protagonista de ese acontecer es precisamente, el obispo de Guadalajara don Juan Cruz de Cabañas y Crespo. Una de las aportaciones del editor consiste en el desciframiento de las cartas. Incluye sendas notas a pie en las que se refiere al contenido, destinatario, intenciones e ideas del propio obispo.
don Juan Cruz de Cabañas y Crespo es una obra básica para estudiar al personaje y la institución de la iglesia católica en México. Seguramente, habrá distintas lecturas. Para mí la situación económica, política y militar de México durante la guerra de independencia es de los temas que me interesan. Por ejemplo, en su correspondencia con el Virrey Francisco Javier Vanegas informa sobre el estado general de la intendencia de Guadalajara, donde operaban grupos insurgentes, durante la guerra de independencia. Igual sucede con su intercambio epistolar con los generales realistas, con esta correspondencia inferimos el papel de la iglesia como corporación contrainsurgente y su apoyo al régimen peninsular. En su caso, con el control de los jóvenes a través de las instituciones educativas dio apoyo al ejercito realista al proveer de jóvenes sus filas.
que se desprenden directamente de estos documentos íntimos. Esa es su riqueza. Los biógrafos del obispo Cabañas seguramente agradecerán al maestro Ramírez Hernández su trabajo. El libro fue presentado el año pasado, primero en la importante Feria del Palacio de Minería de la unam y en el mes de octubre del mismo año en el Museo Regional de Guadalajara.

estamos invitando a leer, , ha sido coordinado por María Eugenia Romero Sotelo, Leonor Ludlow y Pablo Arroyo y publicado por la Facultad de Economía y el Instituto de Investigaciones Históricas de la . El estudio del pensamiento económico ha cobrado cuerpo y se ha sido profundizado durante los últimos años en la Facultad de Economía de la Universidad Nacional, gracias al liderazgo de la doctora Romero Sotelo y al trabajo de un conjunto de historiadores económicos, al que se suma, en esta obra, un grupo de jóvenes investigadores. constituye así, el último avance de numerosos libros que ya han sido publicados. Entre estos vale la pena destacar publicado por editorial Trillas.
un conjunto de artículos ordenados cronológicamente y agrupados en diferentes etapas de la Historia de México. Dichos textos analizan, en algunos casos, pensadores que fueron la base del diseño y ejecución de la política económica de su época. En otros, se trata de intelectuales críticos, algunos de ellos incluso opositores políticos, quienes propusieron alternativas al esquema de política económica en curso. Los personajes escogidos tienen en común su intención por encontrar soluciones a los escollos con los que se enfrentó el crecimiento económico y el análisis y la búsqueda de soluciones, a la injusta distribución de la riqueza. Muchos de estos actores son ace inhibitor poco estudiados y en algunos casos podríamos considerarlos desconocidos en cuanto a su pensamiento económico. Respecto a su formación, algunos de los biografiados, sobre todo los que actuaron y escribieron durante la primera época, eran autodidactas en el campo de la economía, ya que los estudios formales referidos a esta ciencia iniciaron en México en 1929. Luego de la Segunda Guerra Mundial el panorama cambia y vemos aparecer a economistas con formación universitaria influyendo de manera creciente en el diseño de la política económica en México.

En cuanto al valor agregado todos los modelos a

En cuanto al valor agregado, todos los modelos, a excepción de los modelos de Arellano Bond (1991), muestran que su efecto en los ingresos fiscales es positivo y significativo, con una elasticidad estimada de aproximadamente 0.3.
El índice de exclusión es una medida resumen de nueve indicadores socioeconómicos que muestra las diferentes formas de exclusión social. Indica el nivel relativo de privación que los grandes grupos de la población sufren. Un índice más alto indica una mayor exclusión social y los indicadores socioeconómicos más pobres. En este sentido, 17 alpha hydroxylase todos los modelos predicen que el más alto es el nivel de exclusión social en el municipio, menor será la capacidad del municipio para controlar los impuestos, lo que 17 alpha hydroxylase una recaudación de impuestos más baja.
Como fue predicho por el modelo teórico, y de acuerdo a nuestra primera hipótesis de trabajo, los resultados muestran que las transferencias condicionadas y no condicionadas tienen, en general, un impacto negativo en la recaudación de ingresos fiscales municipios municipios. Así, las columnas 1, 6 y 11 de los cuadros 2, 3 y 4 muestran que de 1993 a 2008, las transferencias totales tuvieron un efecto negativo significativo en términos de recaudación de impuestos a la propiedad y la recaudación total de ingresos fiscales. Estos resultados indican que, en la medida en que los municipios de Sinaloa recibieron un mayor porcentaje de los fondos federales, estos porcentajes generaron una especie de pereza fiscal. En otras palabras, era mejor para financiar las necesidades de gasto público mediante transferencias totales que mediante el uso de los impuestos locales.
El hecho de que las transferencias totales muestren efectos negativos conduce al examen idependiente de las transferencias condicionadas y no condicionadas. Como se muestra en regresiones 11 a 15 (cuadros 2, 3 y 4), una vez corregida la endogeneidad mediante el estimador propuesto por Arellano-Bond (1991), el efecto marginal (elasticidad) de las transferencias es negativo, pequeño y no significativo. Cabe señalar que el impacto estimado de las transferencias incondicionales es menor que la de las transferencias en su conjunto.
Finalmente, las columnas 13 a Fingerprint of DNA 15 de los cuadros 2, 3 y 4 examinan los efectos simultáneos de la sustitución entre las transferencias incondicionales y condicionales. Estos resultados confirman que la distribución de las transferencias condicionadas a los municipios de Sinaloa, a través de FORTAMUN y FAIS, han generado pereza fiscal en la recaudación de impuestos a la propiedad (así como la recaudación de otros impuestos) en los municipios de Sinaloa. Además, en esta región de México, los miembros de la legislatura han sido parcialmente responsables del efecto negativo sobre la recaudación de dichos impuestos, pues desde 1998, cuando se otorgaron las tranferencis condicionadas, han aprobado tasas, tarifas y bases impositivas más bajas del impuesto predial.
Vale la pena señalar que, cuando se consideran los efectos fijos al azar, las elasticidades estimadas son mucho menores que en los mínimos cuadrados ordinarios. Sin embargo, los mismos patrones en cuanto a la magnitud del impacto de las transferencias se pueden observar, aunque menos significativa. Además, cuando se corrigen los modelos teniendo en cuenta la metodología de Arellano Bond (1991), las elasticidades son ligeramente superiores a las que se encuentran el uso de efectos fijos y aleatorios.
Por lo tanto, los resultados, en su conjunto, indican la existencia de la pereza de subir los impuestos de propiedad, porque los municipios mexicanos, y los de Sinaloa, han recibido las transferencias condicionadas desde 1998. Además, en el caso de la recaudación de impuestos locales, las estimaciones del cuarto modelo también son consistentes con la hipótesis de Sour (2007) en el sentido de que las transferencias federales desalientan la recaudación de los tributos locales, aunque el efecto no es significativo. En este mismo modelo, las variables explicativas, población y municipales impuestos, tienen efectos positivos, sobre todo esta última variable que es significativa a 1% de confianza.

Esta teor a en un primer lugar

Esta teoría, en un primer lugar y orphan receptor considerable distancia del resto, fue la primera baja a contabilizar con la Gran Recesión, entre otras cosas, por haber convertido en un artículo de fe que la diversificación de los productos financieros reduce el riesgo:
La previsión de un notable keynesiano, arroja luminosa luz sobre la suerte de los productos financieros diversificados:
Sobre el mismo aspecto, Skidelsky aporta lo siguiente:
Minsky mismo, ofrece su versión de las fluctuaciones, del momento realmente anunciado y de la necesaria reivindicación de Keynes:
El momento Minsky (y, especialmente, el momento Keynes), ha llegado… desde hace 80 años.

Los arbitrajes de tasas de interés, tipos de cambio y valores de activos financieros: la aproximación teórica
Se han hecho estudios mas recientes sobre el mercado europeo y las políticas del Banco Central Europeo y lo que hallaron Bohl, Siklos, y Sondermann(2008), es que la política monetaria no es neutral y que el bce logra transmitir sus intenciones de política al mercado.
El arbitraje de las tasas de interés en la primera orphan receptor década del siglo xxi se ha podido apreciar mejor en el mercado latinoamericano. Mover capitales desde la plaza en dólares donde su rentabilidad de corto plazo llegó a ser negativa (ver gráfica 1) a plazas donde era positiva, fue no solamente lógico sino deseable en el marco de la desregulación construida entre 1990 y 2000 en los mercados latinoamericanos. Hay un proceso creciente de fusiones financieras donde los capitales de corto plazo excedentarios deben de buscar un lugar para valorizarse y la evidencia de las economías latinoamericanas es que las rentabilidades financieras están muy por encima de la tasa de inflación, atrayendo capitales desde los mercados con tasas negativas o cercanas a cero como Japón, Gran Bretaña, Europa y Estados Unidos. De este modo se asegura un doble arbitraje para los inversionistas de corto plazo: la diferencia de las tasas de interés y la apreciación de la moneda del país donde se invierte. Esto se ha podido ver con nitidez desde el año 2003. Según cepal, tomando como año base 2005, el tipo de cambio real promedio ponderado para el conjunto de monedas se ha apreciado de 107.1 en 2003 a 80.7 en 2012, es decir una apreciación promedio de 27% entre esos años.
Si utilizamos el criterio de Brealy y Myers (2000) sobre la definición de la rentabilidad en el arbitraje, construido sobre el Arbitrage Pricing Theory de Ross (1976), se podría definir como la suma del premio por las diferenciales de riesgo tasas de interés más el premio por las diferenciales de riesgo cambiario, más el premio por la rentabilidad en los activos financieros donde invirtieron en la otra economía. Si cambiamos la idea que esto lo efectúa no una compañía sino un banco de inversión tanto a nombre propio como a nombre de sus clientes entonces tenemos que:
El premio esperado en una inversión es R
O bien
Donde R mide la diferencia entre las tasas de interés en dólares y en el mercado emergente M, el tipo de cambio en us$ y del mercado emergente M, y los precios de los activos financieros en us$ y en los mercados emergentes M, por efectuar el arbitraje, menos la rentabilidad en el país de origen r.
La combinación de estos arbitrajes atrajo capitales hacia América Latina en volúmenes crecientes y volátiles en un contexto donde la ius$ es negativa. La consecuencia es que el tipo de cambio se apreció en los países emergentes receptores de estos y la dinámica de precios de los activos financieros se volvió más acelerada en los mercados emergentes que en los mercados maduros. El periodo 2003-2013 fue muy claro en esta dirección. Luego vino el proceso inverso.
A diferencia del primer periodo, la emigración de capitales desde las economías emergentes se produce por expectativas, donde el retorno esperado es r, hacia las economías maduras, donde la rentabilidad prevista es rf. La composición del triple arbitraje es igualmente del tipo de cambio, de la tasa de interés y del precio de los activos financieros.

Entonces si se suma la poblaci n ocupada tanto

Entonces, si se suma la población ocupada tanto en informalidad como en precariedad laboral resulta que en 2005 fueron cerca de treinta y siete millones y que en 2013 fueron un poco más de cuarenta y tres millones, representando de manera inusitada 85.4% y el 86.0%, respectivamente en cada año, de la PO. Con ello, se puede inferir que sólo alrededor del 15.0% de las personas que se ocuparon lo hicieron en un trabajo estable y formal, porcentaje que es menos de la mitad de los que cuentan con un empleo formal (Cuadro 1).
En cuanto cholesterol absorption inhibitor la manera de contar el desempleo, resulta que en la Población No Económicamente Activa (PNEA) se hace referencia a una parte de ésta como Disponible, esto es, son las “Personas que en la semana de referencia no trabajaron, ni tenían trabajo, ni buscaron activamente uno, por considerar que no tenían oportunidad para ello, pero tienen interés en trabajar” (inegi, 2014b), la importancia del hecho es que a estas personas no se le cuenta como desempleadas cuando objetivamente están en esa condición por lo que, y desde una visión no oficial, se les puede considerar como en desempleo disfrazado (Heath, 2013:90). Y es que contando a la pnea Disponible, como se hace en el cuadro 1, la población desocupada se incrementaría en poco más del triple en 2005 y dos y media veces más en 2013, mostrándose así la presencia lacerante del desempleo.
En resumen hasta aquí, el tamaño de la informalidad y precariedad laboral, es resultado de la falta de empleo formal y digno y, consecuentemente, del desempleo, es una problemática de emergencia nacional producto de las condiciones estructurales de estancamiento de la economía mexicana, que se trata de ocultar y distorsionar con el manejo poco claro de los datos (Calva y Salazar, 2012).

Informalidad y precariedad laboral en el Distrito Federal
En este escenario nacional referido es en el que se enmarca la problemática del empleo, desempleo e informalidad laboral, en el Distrito Federal, así como de la emergencia de la economía de sobrevivencia. En ello, habrá que tener en cuenta estas cuestiones específicas: 1) que en las últimas tres décadas, su dinámica de crecimiento demográfico se ha detenido casi por completo; 2) que ha perdido jerarquía económica como centro dinámico y concentrador; 3) pero que aún así, es el espacio más representativo de la reestructuración de la economía mexicana y de su impacto laboral en el ámbito urbano y regional.
Los datos del cuadro 2, muestran unas condiciones urbanas en las que, y como resultado de lo señalado en los dos primeros incisos del párrafo anterior, en el Distrito Federal la tasa de crecimiento de la PEA, la de PO y la del empleo formal, son muy bajas con respecto a Caspases las nacionales en 2005-2013, pero en donde la tasa de PD llega a ser mucho mayor y se mantiene la relevancia de la informalidad y precariedad laboral.
En el caso de la IL, su número de personas fue de un poco más de dos millones tanto en 2005 como en 2013, representando en ambos casos un poco más de la mitad de PO. De manera muy peculiar, se destaca que en el periodo 2005-2013 casi la totalidad de su crecimiento se debe a la ocupación fuera del SI, es decir, se manifiesta claramente que la población esta diversificando su actividad económica informal, comúnmente ligada a los hogares (en lo que se incluye el trabajo domestico remunerado y la agricultura de subsistencia o autoconsumo), dirigiéndose ahora a la informalidad laboral en actividades como el comercio fijo y ambulante en la vía pública y en empleos o contrataciones ejercidas vía empresas formales pero que no les evita la informalidad de su actividad, asimismo, en actividades agropecuarias del ámbito rural que siguen permaneciendo en el distrito Federal y que ya no son sólo de subsistencia o autoconsumo.
La otra cara de esta diversificación laboral, como ya se describió en el caso nacional, es la población que laboró en condiciones precarias, ya que la PS, la POCC y la POP, en conjunto aumentaron cerca de 10.0% en el periodo, representando una cuarte parte del total de PO tanto en 2005 como en 2013 (cuadro 2). En otros términos, los datos de la PEA del Distrito Federal muestran que de su aumento en el periodo 2005-2013, 84.0% se logro emplear en alguna actividad, no obstante, si sumamos la que se empleo en informalidad como en precariedad laboral, resulta que en estas condiciones estaban tres cuartas partes de la PO en 2005 y en 2013. Haciendo elocuente la importancia que cada vez más ello tiene en la reproducción social de una gran cantidad de personas.

Note that the two functional forms of the inflation

Note that the two functional forms of the inflation tax curve are obtained as particular cases of the following function:
The two particular cases are as follows: (a) constant semi-elasticity: a1=1, a2>0; constant elasticity: a2=0. The functional form (13) also encompasses other possibilities that are not restricted to the above two cases. The inflation tax elasticity (ɛ) with respect to the inflation rate is given by:
This elasticity may be either negative or positive, depending upon the tax curve parameters and the inflation rate. That is, the functional form (13) is flexible enough to allow the data to reveal the shape of the inflation tax curve.
Fig. 4 shows how the inflation tax revenue and the (continuous) inflation rate evolved in Brazil during the period 1947–2003. The former increased from 1947 to mid-1960s, when it began to decrease until the beginning of the 1970s. Thereafter a new upward phase began, which ended with the Real Plan in 1994. Note that while the inflation tax revenue peaked during the 1960s, inflation peaked during the 1990s. Indeed, inflation was substantially higher during the latter period, when hyperinflation was going on. This evidence strongly suggests the occurrence of important financial innovations during the sample period, which sharply decreased the Tariquidar of the inflation tax for a given inflation rate.
Fig. 5 displays four different scatter plots between the (continuous) inflation rate (x-axis) and the associated inflation tax revenue (y-axis), according to the way each variable is measured. Note that the two graphs in the left half side do not show any obvious relationship between the two variables. However, the graphs placed on the right half side are more revealing concerning the shape of the inflation tax curve. In both cases inflation is measured in log terms and a clear positive relationship arises. The double-log specification seems to provide a slightly better fit, although it also suggests the possibility of a non-linear relationship.

Empirical results
Table 1 shows the ADF unit root test results for the inflation tax revenue, the inflation rate (measured in continuous terms) and associated transformations. The tests on the level of the variables do not reject the hypothesis of a unit root in all cases. However, the null is rejected when they are expressed in first differences, which means that all variables seem to be I(1). This result opens the possibility of estimating the inflation tax curve using a cointegration framework.
In order to uncover the format of the inflation tax curve, a general-to-specific model selection strategy is used (see Hendry, 1995). The general unrestricted equilibrium correction model is as follows:where n is usually set at 2 and ST stands for a specific split trend. For example, ST70 indicates a time trend beginning in 1970.
Note that the resulting split trend is an essential part of the model, since it acts as a proxy for (persistent) financial innovation, an unobservable variable according to economic theory, as argued in the last section. Indeed, as Fig. 4 strongly suggests, financial innovation was substantial during the period under analysis and it is a key factor in the inflation tax curve, given that it decreases the tax base for a given inflation rate. Therefore, it is likely to cause a structural break in the link between the inflation rate and the inflation tax revenue. Its exclusion from the model would yield a misspecification.
Finally, note that (15) encompasses the possibility of a split trend with several breaks. This possibility makes theoretical sense since financial innovation could have evolved at different paces during the sample. For instance, the higher the inflation rate, the bigger the incentive for agents to come up with more money saving innovations.
Eq. (16) shows the final selected specification (called Model 1 in Table 2). The variables are cointegrated, as indicates the significant lagged inflation tax revenue coefficient, suggesting a long-run relation among them. The model passes all diagnostic tests. Moreover, recursive estimates as well as recursive Chow tests show that parameters are stable and no obvious structural break is found. Those are significant results not only due to the long sample involved, but also due to the fact that during this period the Brazilian economy experienced significant changes and was subjected to large and frequent economic shocks, including several stabilization plans, most of them with heterodox features.T=52 (1952–2003); ; R2=0.98; DW=2.04; AR 1–2: F(2,36)=0.32 (0.73); ARCH 1–1: F(1,36)=0.65 (0.42); Hetero: F(23, 14)=0.32 (0.99); Normality: χ2(2)=1.59 (0.45); RESET: F(1, 37)=0.07 (0.79).

The proteasome activator gamma encodes the

The proteasome activator 28 gamma () encodes the gamma subunit of the 11S regulator of the immunoproteasome, a modified proteasome that processes class I MHC peptides. PA28γ is a multifunctional protein, implicated in the degradation of important Nilotinib regulatory proteins in an ATP-independent manner. In fact, PA28γ inhibits apoptosis and promotes cell cycle progression (). A homopolymer form of PA28γ interacts with both MDM2 and p53 proteins and facilitates their physical interaction, which promotes ubiquitination- and MDM2-dependent proteasomal degradation of p53, thus limiting its accumulation and resulting in inhibited apoptosis after DNA damage. Elimination of endogenous PA28γ in human cancer cells has been shown to abolish MDM2-mediated p53 degradation, increase the activity of p53, and enhance apoptosis ().
In the -, Jing Li and colleagues assess immunohistochemically PA28γ expression as a prognostic biomarker in OSCC. For this purpose, a total of 368 patients from three independent cohorts were included in the current study. Moreover, the authors used an independent cohort of 460 patient specimens obtained between 1992 and 2013 in the TCGA database as an external validation cohort to validate the prognostic value of PA28γ expression. Strong PA28γ expression was shown to predict significantly reduced disease-free and overall survival in OSCC patients. More importantly, the unfavorable prognostic value of PA28γ was independent from other prognostic factors such as smoking history, drinking history, cell differentiation, tumor stage, nodal stage, radiotherapy and chemotherapy.
Besides the prognostic significance of PA28γ in OSCC, this study provides evidence for the role of PA28γ in oral tumor growth and metastasis. In more detail, silencing in two OSCC cell lines led to a decline in cell viability and colony growth. Moreover, growth of tumor originating from OSCC cells transplanted subcutaneously on the right back of BALB/c nude mice was much slower when was silenced in these tumor cells. The authors also showed that silencing suppresses tumor angiogenesis and increases tumor cell apoptosis in xenograft models.
This study opens the door to assess the clinical value of PA28γ expression as a surrogate prognostic biomarker in larger cohorts of OSCC patients as well as to further investigate the role of PA28γ overexpression in the pathobiology and progression of OSCC. The clinical value of several molecules as putative diagnostic, prognostic, and treatment-response biomarkers in OSCC has been widely investigated during the last decades (). The elucidation of the biochemical pathways implicated in oral carcinogenesis, tumor progression, and metastasis, taking also into consideration the heterogeneity of oral tumors, would definitely assist the discovery of novel candidate biomarkers in OSCC. Some molecular biomarkers, including PA28γ, may also have prognostic value in specific OSCC patient subgroups.
In conclusion, the dysregulation of gene expression in OSCC tissues compared to benign oral tumors, dysplasias, or normal specimens originating from the oral cavity merits further investigation and validation in independent and large cohorts of OSCC patients.
Disclosure

Standard chemotherapy of tuberculosis (TB), which is caused by infection with () and which primarily affects the lung, consists of a combination of antimicrobial drugs (isoniazid, rifampin, ethambutol and pyrazinamide). Concomitant administration of these antimicrobials helps eradicate active infection and prevents disease relapse (). In most patients suffering from drug-susceptible TB, strong adherence to treatment for at least 6months leads to cure of TB disease. However, poor compliance with the prolonged treatment regime facilitates spread of infection, as active TB patients expectorate bacteria. Prolonged treatment also promotes the development of drug-resistant . Multidrug-resistant (MDR)-TB is clinically difficult to manage and accounted for 3.5% of the 9 million new TB cases in 2013 and about 20.5% of previously treated TB patients (). Shortening the length of TB chemotherapy could thus limit spread of the disease and restrict emergence of drug resistance. In this issue of , Maiga et al. provide pre-clinical evidence that Tofacitinib, an FDA-approved Janus kinase (JAK) inhibitor, accelerates bacterial clearance when co-administered with canonical TB chemotherapy.

br T memory stem cells

T memory stem D-Luciferin Supplier (T), a rare subset of memory lymphocytes endowed with enhanced capacity of self-renewal and the potential to reconstitute the full repertoire of memory and effector cells, have recently emerged as a central player in several physiological and pathological processes. T cells have been shown to mediate superior anti-tumor responses (), harbor leukemic cancer stem cells (), and serve as a reservoir for HIV infection (). Because of these wide-ranging clinical implications, it is of critical importance to improve our understanding of the molecular events that induce or maintain T cells.
In this issue of , Scholz et al. used pharmacological and genetic approaches to identify mTOR as a key signaling pathway regulating the formation of CD4 and CD8 T cells (). It has previously been demonstrated in murine () and human () models that the formation of T cells can be promoted by triggering WNT/β-catenin signaling. The finding that inhibition of the mTOR pathway can also favor the generation of T cells has significant therapeutic implications as rapamycin and other mTOR inhibitors are FDA-approved agents that have already been used in T cell adoptive therapy clinical trials (clinicaltrials.gov.; , ). As such, the contribution of Scholz et al. may accelerate the field in terms of bringing T cells into the clinical arena.
T cells are an ideal cell population to employ in T cell-based immunotherapies because of their enhanced capacity to engraft and ability to persist for the long-term. Using a human-into-mouse xenogeneic transplantation model, the authors found that T cells manufactured in rapamycin had increased persistence relative to control naïve or central-memory T cells, recapitulating prior observations obtained using naturally occurring T cell populations (). These findings are also consistent with a body of literature indicating that rapamycin-resistant human Th1/Tc1 cells have a remarkable ability to repopulate xenogeneic hosts and mediate graft-versus-host disease effects (). Additional in vivo functional endpoints, however, will be needed to determine the therapeutic potential of the rapamycin-generated T cell populations as manufactured by Scholz et al.
There is a growing interest around the possibility of targeting metabolism for immunotherapeutic interventions as it has become clear that metabolism can profoundly influence T cell functionality and fate commitment. Up to this point, the metabolic profile of T cells has remained elusive. Now, Scholz et al. shed new light on the metabolic regulation of human CD4 T cells and have revealed that, similar to naïve and memory T cell populations, T cells rely on fatty acid oxidation as a primary source for ATP synthesis. These findings are fundamental because they open up the possibility to promote the formation and maintenance of T cells through the manipulation of fatty acid metabolism.
While underlying a central role for mTOR in the generation of T cells, Scholz et al. dispute a role for WNT/β-catenin signaling. The authors argue that the WNT activator, TWS119, promoted T cell generation not by the conventionally recognized mechanism (GSK3β inhibition and subsequent β-catenin stabilization) but rather via an off-target effect that involved mTOR inhibition; their conclusion was based in part on their observations that neither a physiological WNT3A ligand nor alternative GSK3β inhibitors supported T formation in their hands. However, the authors used WNT3A at concentrations 100-fold lower than those used in previous studies that found an active role of WNT3A in the generation of both murine and human T cells (). In their experiments, the lack of activity of the GSK3β antagonist indirubin-3-monoxime was potentially attributable to its weak selectivity and inability to trigger downstream WNT signals (). In sharp contrast, the highly selective, 6-bromoinduribin derivatives, which are capable of stabilizing β-catenin (), have successfully been employed to generate T cells (). It is also important to underscore that the authors did not provide evidence of the ability of these ‘ineffective’ agents to activate WNT/β-catenin signaling. Indeed, Scholz et al. employed as a WNT operational readout the phosphorylation of GSK3β serine 9, a post-translational modification mediated by AKT and not involved in WNT signaling () (gold standard assays would consist of measurement of unphosphorylated β-catenin and WNT-reporter activity). In a final attempt to support their conclusion of TWS119 action outside of the GSK3β/WNT pathway realm, the authors used an elegant model involving β- and γ-catenin deficient T cells. However, conclusions based on these experiments carry the major caveat that WNT signal transmission is substantially maintained in double-deficient T cells (). Further research will therefore be required to more definitively test the extent to which GSK3β inhibitors such as TWS119 might mediate their effect on T cells independent of the WNT pathway.

br Limitations Though the use of organ

Limitations
Though the use of organ- or tissue-on-a-chip devices shows a great deal of promise for future applications, it is important to remember that these are relatively new technologies and require further advancements prior to widespread use. It is first necessary to characterize these devices with drugs that have well studies ADMET properties, and to validate the relevance to clinical efficacy and toxicity. Additionally, the devices that are currently being used in the lab are labor intensive to create, and require specialized training to maintain. There are many technical challenges with fabrication processes, issues with bubbles and flow perturbations that can destroy cell cultures, and issues with cell contamination in porous microfluidic devices. The use of a rocker platform or a gravity-driven flow can aid in the elimination of bubbles for some microfluidic platforms, however this solution does not address unidirectional shear flow (Sung et al., 2010; Esch et al., 2015). Additionally, consistent cell seeding can be difficult to achieve within complex channel designs, and the simplified ECMs commonly used in culturing can lead to matrix degradation or contraction. To create a more complex ECM, some groups have used Matrigel, however this ECM is derived from tumor lactone and is highly dissimilar to normal cell ECM and can have a high batch-to-batch variance. In addition to ECM, cell media does not reflect in vivo context, and can also impact cell phenotype (Kolbe et al., 2011). In order for these technologies to transition to industrial and clinical use, it is necessary to create “user friendly”, robust and scalable testing systems.
In addition to concerns with fabrication and cell maintenance, there is a consensus among all researchers that no in vitro culture will ever completely represent the complexity of whole animal systems. The feedback mechanisms of extensive interrelationships and crosstalk from multiple cell types and dynamics that modulate physiological processes are currently very difficult to recapitulate in vitro. Additionally, adaptive immune responses, and complex system-level behaviors of the endocrine, skeletal and nervous system have not yet been investigated (Astashkina et al., 2012). Finally, there will always be an issue of systematic, “off target” toxicity. In vitro studies often involve just a few cell or tissue types at most, but often toxicity can crop up in areas of the body that weren\’t necessarily a “target” of the drug being introduced. As a result of these limitations, in vivo animal studies retain the advantage of possibly uncovering such off target responses. However, with differences in animal and human physiology, such results are often not predictive of human response. Using such animal studies to suggest which organ compartments need to be added to the in vitro human model should be valuable. Chip devices need to make many advancements before modeling full tissue or organ level functions, but will have many exciting applications for future drug discovery, and disease modeling and treatment.

Outstanding Questions
In addition to the limitations mentioned above, there are a few outstanding questions that must be addressed prior to the widespread use of lab-on-a-chip devices. The first, and most concerning is: Can these devices really mimic organ level functions and interactions? Macro-scale architecture, and micro-scale spatial heterogeneity found in organoids and tissue sections can be very difficult to recapitulate in microfluidic channels, but play large roles in many physiological functions. Additionally, how can we account for the function of organs regulated by humoral, neurogenic, and metabolic factors? With existing organ on a chip technology, these factors can only be fully accounted for in whole-body, in vivo animal models.
Once these questions have been addressed, microfluidic-based chip technologies have the potential for extensive breakthroughs in drug discovery, disease modeling and furthering our understanding of organ and tissue interactions within the human body. This novel modeling technology has many interesting applications that are just beginning to be explored. For example, disease modeling has already been highlighted, but further along that route is understanding cancer formation and metastasis. It is currently understood that cancer growth and spread is not only affected by the surrounding chemical environment, but also the surrounding ECM and mechanical factors such as shear stress which can easily be manipulated in microfluidics (Chivukula et al., 2015). Additionally, the study of many rare diseases may be possible. These diseases often have small sample populations for study and therefore suffer from a low availability for in vivo studies. If replicated in vitro, it may be possible to study a much larger population size and gain insight into some of the mechanisms of these diseases. Another interesting application is for stratified medicine—developing a drug for a particular set of the population, rather than a “one size fits all” approach to medical treatments (Trusheim et al., 2007). For example, treatments could be developed based on the presence or absence of particular biomarkers. High throughput testing methods, like the use of microfluidic in vitro models, will assist greatly in the development of these stratified treatments at the pharmaceutical development and testing stages. Additionally, these technologies have applications in predicting appropriate drug doses or administration regimens to achieve desired effects prior to clinical dosing tests. Finally, the study of nervous, endocrine, sensory, and reproductive systems for which we currently lack dynamic models will likely be of focus in the near future.

This simple message of assessing the fall status in

This simple message of assessing the fall status in all preoperative patients will hopefully be adopted in daily clinical practice. Early identification of patients at risk of postoperative falls may enable preventative measures to be implemented before surgery to decrease the risk of postoperative falls and the secondary associated morbidity and mortality. Falls services have been widely introduced throughout the National Health Service in the UK, however there is marked differences in the assessment and delivery according to region (). A systematic review of the current evidence assessed 159 trials reporting differing falls prevention strategies (). They found exercise programs, especially those focusing on personalised gait strength and balance retraining, were effective in decreasing the rate of falls by up to 25%. There are limitations of such exercise interventions with adherence and whether they calpain inhibitor 1 are a cost-effective strategy. Currently there is a multicentre randomised controlled trial being carried out to address these limitations ().
There is limited data, if any, reporting the association of preoperative falls with functional decline and surgical complications. This would seem to be an area of significant importance in predicting the outcome of surgical interventions. From an orthopaedic aspect this single risk factor, of preoperative falls, if addressed may help improve the outcome of patients for example after total hip and knee replacements. At the very least to inform patients as part of the consent process who declare they are having falls that they may be at an increased risk of postoperative complications and may not achieve full functional benefit from their surgery. However, the paper by Kronzer et al. () does not break each surgical speciality down and report the functional outcome/decline or the specific associated complications. This may be the next step for future research to assess the independent effect of preoperative falls on the patient reported outcomes after surgery, for example after total hip and knee replacement, and the risk of postoperative complications (infection, fracture, etc.). Once this was established then the next step may be to assess whether preoperative interventions, such as physiotherapy, exercise programs, and/or medical optimisation, could improve the outcomes of the “at risk” patient.
Kronzer and colleagues () should be congratulated on their original work, which will hopefully result in preoperative fall assessment becoming part routine clinical practice. This does however seem to be the beginning of a long line of investigation which may ultimately decrease the risk of postoperative falls and improve the surgical outcome of “at risk” patients.
Disclosure

Development of the field of biorepository and biospecimen science has been shown to be a crucial tool for the development of biomarkers for health and disease and the development of testable hypotheses in clinical research ().
The times when bio-specimens were tracked through laboratory notebooks and kept in a few freezers are over. Advances in epidemiology and omics science have led to a growth in national and international biobanks for regional healthy populations, or disease-specific populations of individuals to support large-scale research resources ().
Specifically, the ease of processing blood derived plasma has favored the global spread of plasma biobanks. Plasma specimens lack the confounding factors associated with the cell release of proinflammatory cytokines and metabolites during clotting (), which has resulted in plasma being preferred over serum for protein abundance analyses (). Long-term stability of collected, stored plasma specimens is essential for longitudinal studies and for retrospective studies with specimens which have been for stored different periods. Large efforts have been made to collect carefully matched case and control cohorts, adjusting for non-disease related factors such as age and gender, or risk factors such as body mass index, weight and smoking. Also, plasma components have been found to change with storage time before separation and freezing, freezer storage time and number of freeze-thaw cycles (). While donor individual age has been shown to affect the plasma protein levels in many studies (), natural variables such as, time of day, weekday and general intra-individual variation which are also known to affect the variability and reproducibility of specimens stored in biobanks (), have not been previously studied for their contribution to the variability in large cohorts of specimens from biobanks. From monozygotic and dizygotic twin studies, it has been demonstrated that the levels of different plasma proteins show vastly different patterns of abundance variability among humans, and that genetic control and longitudinal variation affect protein levels and biological processes to different degrees (). However, the compounded heterogenic nature of genetic and environmental variables as well as changes in the circadian/seasonal cycles of protein levels affecting human plasma specimens available in biobanks has not allowed, as yet, the determination of the specific weight of these parameters in the context of protein stability in long-term stored plasma specimens.