numpy的调度:当numpy的成为协议的生态系统

介绍

在Python科学生态系统中工作的很多人都不知道棉结18(派遣机构与NumPy的高层阵列功能)。考虑到该协议的重要性,我决定编写这篇对新的dispatcher的简短介绍,它肯定会带来a很多的好处对于巨蟒科学生态系统来说

如果您使用PyTorch,TensorFlow,DASK,等等,你肯定注意到了与numpy的他们的API合同的相似性。它由事故不是,numpy的的API是科学计算中最基本也是最广泛使用的API之一。numpy的是如此普遍,它不再是唯一的API,它变得越来越的协议或API规范。

阅读更多

GPT-2语言模型的Benford定律

我几个月前写过本福德定律是如何从语言模型中产生的,今天我决定用同样的方法来检查GPT-2级会用一些句子来表现,结果发现它似乎也捕捉到了这些幂律。你可以在下面的例子中找到一些图,这些图显示了特定句子中数字的概率,例如“人口规模为“,示出的分布:$$ P(\ {1,2,\ ldots,9 \} \ VERT \文本{“与群体大小”})$$用于GPT-2培养基模型(345M):

引用本文为:基督教S. Perone,“本福德法律上GPT-2语言模型”,在亚洲金博宝隐姓埋名地2019年6月14日,//www.cpetem.com/2019/06/benford-law-on-gpt-2-language-model/.

在PyTorch随机现有功能

训练的MLP有两个隐藏层和一个正弦先验。

我在试验中描述的方法深强化学习随机函数之前“作者Ian Osband等人。在2018年的NPS大会上,他们设计了一种非常简单实用的方法,使用bootstra亚洲金博宝p和随机化priors来解决不确定性问题,并决定共享PyTorch代码。

我真的很喜欢bootstrap方法,在我看来,它们通常是最容易实现的方法,并且提供了非常好的后验近似,并且与贝叶斯方法有很深的联系,而不必处理变分推理。他们实际上在论文中表明,在线性情况下,该方法提供了一个贝叶斯后验。亚洲金博宝

该方法的主要思想是用bootstrap来提供一个非参数数据扰动和随机先验,这仅仅是随机初始化的网络。

$$ Q _ {\ theta_k}(X)= F _ {\ theta_k}(X)+ P_K(x)的$$

最后一个模型(Q{theta k}(x)将是集合的k模型,它将与未经训练的前一个函数(p{uk(x))相匹配。

我们去的代码。第一类是一个简单MLP 2隐藏层和Glorot初始化:

类MLP(nn.Module):DEF __init __(个体):超级().__ INIT __()self.l1 = nn.Linear(1,20)self.l2 = nn.Linear(20,20)self.l3 = NN.Linear(20, 1) nn.init.xavier_uniform_(self.l1.weight) nn.init.xavier_uniform_(self.l2.weight) nn.init.xavier_uniform_(self.l3.weight) def forward(self, inputs): x = self.l1(inputs) x = nn.functional.selu(x) x = self.l2(x) x = nn.functional.selu(x) x = self.l3(x) return x

再后来,我们定义一个类,将采取的模式,并产生最终的模型结果之前:

类ModelWithPrior(nn.模块):def\uu init\uu(自我,基本模式:nn.模块,以前的_模型:nn.模块,上一个刻度:float=1.0):super()。\u initself.base_模型=基本模型自我先验模型=先前的模型自我先验量表=前刻度向前(自,输入):有火炬。没有毕业():之前的输出=自我先验模型(输入)previor_out=先前_分离(型号)self.base_模型(输入)返回模型输出+(自我先验量表*之前)

基本上就是这样!如您所见,这是一个非常简单的方法,在第二部分中,我们刚刚创建了一个自定义forwa亚洲金博宝rd(),以避免计算/累积先前网络的梯度,并使用模型预测对其求和(缩放后)。

要训练它,你只需要对每个集成模型使用不同的bootstrap,就像下面的代码:

def train_model (x_train y_train、base_model prior_model):模型= ModelWithPrior (base_model prior_model 1.0) loss_fn = nn.MSELoss()优化器= torch.optim.Adam (model.parameters (), lr = 0.05)时代的范围(100):model.train()仅仅=模型(x_train)损失= loss_fn(仅仅y_train) optimizer.zero_grad () loss.backward () optimizer.step()返回模型

以及使用与置换(自举)采样,如:

数据集= TensorDataset(...)bootstrap_sampler = RandomSampler(数据集,TRUE,LEN(数据集))train_dataloader =的DataLoader(数据集,=的batch_size LEN(数据集),采样= bootstrap_sampler)

在本例中,我使用了与原始文件中相同的小数据集:

在对其进行简单的MLP训练之后,不确定度的结果如下所示:

训练模型采用MLP先验,共50个模型。

如果我们看一下刚刚的前科,我们将看到未经训练的网络的变化:

我们也可以想像,由于不同的初始化以及噪音引导个体模型预测出他们的差异:

图中红色显示每个模型的预测和真实数据。

现在,有趣的是,我们可以在我们说一个固定的正弦之前改变前一个:

类SinPrior(n . module): def forward(self, input): return torch。罪(3 *输入)

然后,当我们训练用正弦之前相同的MLP模型,但这个时候,我们可以看到它是如何影响最终的预测性和不确定性范围:

如果我们展示每个单独的模型,我们可以看到先前对每个单独模型的贡献的效果:

显示用正弦先验训练的集合的每个单独模型的图。

我希望你喜欢,这些是相当惊人的结果,为一个简单的方法,至少通过线性“健全检查”。我将探索一些预先训练好的网络来代替先前的网络,以了解对预测的不同影响,这是一个非常有趣的方法来添加一些简单的prior。亚洲金博宝

引用本文为:Christian S.Perone,“Pythorch中的随机先验函数”,in亚洲金博宝隐姓埋名地2019年3月24日,//www.cpetem.com/2019/03/randomized-prior-functions-in-pytorch/.

PyData蒙特利尔演讲幻灯片:引擎盖下的Pythorch

这是我2月25日在蒙特利尔PyData发表的演讲的幻灯片。很高兴见到你们大家!非常感谢玛丽亚亚历山大的邀请!

引用本文为:Christian S.Perone,“PyData Montreal slides for the talk:Pythorch under the hood”,in亚洲金博宝隐姓埋名地2019年2月26日,//www.cpetem.com/2019/02/pydata-montreal-slides-for-the-talk-pytorch-under-the-hood网站/.

甲理智的介绍最大似然估计(MLE)和最大后验(MAP)

这是令人沮丧了解的原则,如最大似然估计(MLE),最大后验(MAP)和贝叶斯推理一般。这一困难的主要原因,在我看来,是很多教程假设前面的知识,使用隐或不一致的符号,或者甚至解决一个完全不同的概念,因此重载这些原则。

前面提到的这些问题让新手理解这些概念变得非常困惑,我经常遇到不幸被许多教亚洲金博宝程误导的人。出于这个原因,我决定写一篇对这些概念的合理介绍,并详细阐述它们之间的关系和隐藏的交互作用,同时试图解释公式的每一步。我希望能带来一些新的东西来帮助人们理解这些原则。

最大似然估计

最大似然估计是一种用于估计给定观测值的模型参数的方法或原理。极大似然估计又简称MLE,又称极大似然估计法。从这个名字,你可能已经理解了这个原理是通过最大化似然来工作的,因此,理解最大似然估计的关键是首先理解什么是似然,以及为什么有人想要最大化它来估计模型参数。

让我们从连续情况下似然函数的定义开始:

$$\mathcal{L}(\theta | x)=p{\theta}(x)$$

左边的项表示“参数的可能性\(\theta\),给定数据\(x\)”。这是什么意思呢?它意味着在连续的情况下,参数化的模型(p_{theta}(x)\)和数据\(x\)的可能性是具有特定参数化的模型的概率密度函数(pdf)。

Although this is the most used likelihood representation, you should pay attention that the notation \(\mathcal{L}(\cdot | \cdot)\) in this case doesn’t mean the same as the conditional notation, so be careful with this overload, because it is always implicitly stated and it is also often a source of confusion. Another representation of the likelihood that is often used is \(\mathcal{L}(x; \theta)\), which is better in the sense that it makes it clear that it’s not a conditional, however, it makes it look like the likelihood is a function of the data and not of the parameters.

模型(p{theta}(x))可以是任何分布,为了具体化,假设数据生成分布是一个单变量高斯分布,我们定义如下:

$$
\ {开始}对齐
P(X)&\ SIM \ mathcal {N}(\亩,\西格马^ 2)\\
p (x);\μ、σ^ 2)& \ sim \压裂{1}{\ sqrt{2 \π\σ^ 2}}\ exp{\境[- \压裂{1}{2}\境(\压裂{x - \μ}{\σ}\境)^ 2 \境]}
结束\{对齐}
$$

如果你用不同的参数绘制这个概率密度函数,你会得到如下图,其中红色分布是标准高斯\(p(x) \sim \mathcal{N}(0,1.0)\):

188bet app
正态分布概率密度函数的一种选择。平均值μ和方差σ2都是不同的。图上给出了键。来源:维基共享资源。

正如可以在上面的概率密度函数(pdf)图看到的,\(X \)在各种给定的实现的可能性是显示,在y轴。这里混乱的另一个原因是,通常情况下,人们把这个作为一个概率,因为他们平时看到的法线的这些情节和可能性总是低于1,但是,概率密度函数不给你的概率,但密度。对PDF格式的限制是它必须集成到一个:

$$\int{-\infty}^{++\infty}f(x)dx=1$$

所以,这是完全正常的有密度大于1的点多了许多不同的分布。举个例子为PDF格式贝塔分布下表:

188bet开户注册平台
β分布的概率密度函数。资料来源:维基媒体共享。

正如可以看到,在示出PDF密度上面一个在分布的许多参数化,同时仍纳入1和如下的概率的第二公理:单位测量。

所以,回到我们原来的最大似然估计的原则,我们要的是最大限度的可能性\(\ mathcal {L}(\ THETA | X)\),我们观察到的数据。这意味着在实用性方面是我们要找到这些参数\(\ THETA \),我们的模型,其中生成我们的数据这种模式的可能性最大的,我们要找出哪些这个模型的参数是最合理已经产生的这个观测数据,或者是什么,使这个样品最可能的参数?

对于我们的单变量高斯模型,我们需要的是找到参数\(\mu)和\(\sigma^2),为了便于表示,我们将其折叠成一个参数向量:

$ $ {bmatrix}开始\θ= \ \μ\ \ \σ^ 2 \ {bmatrix} $ $

因为这些是完全定义我们的单变量高斯模型的统计信息。因此,让我们制定的最大似然估计的问题:

$$
\ {开始}对齐
{\ \帽子θ}& = \ mathrm {arg} \ max_ \θ\ mathcal {L} \ \ \θ| x
&= \ mathrm {ARG} \ MAX_ \ THETA P 450 {\ THETA}(x)的
结束\{对齐}
$$

这就是说,我们要获得最大似然估计\(\帽子{\ THETA} \)近似\(P _ {\ THETA}(X)\)的潜在“真”分配\(P _ {\ THETA ^ *}(X)\)通过最大化的参数的可能性\给出(\ THETA \)数据\(X \)。You shouldn’t confuse a maximum likelihood estimate \(\hat{\theta}(x)\) which is a realization of the maximum likelihood estimator for the data \(x\), with the maximum likelihood estimator \(\hat{\theta}\), so pay attention to disambiguate it in your head.

然而,我们需要在这个公式中包含多个观测值,通过添加多个观测值,我们最终得到一个复杂的联合分布:

$ $ \帽子{\θ}= \ mathrm {arg} \ max_ \θp_{\θ}(x_1、x_2 \ ldots x_n) $ $

这需要考虑到所有观察结果之间的相互作用。在这里我们做了一个强有力的假设:我们声明观察结果是独立的. 独立随机变量意味着以下结论成立:

$$p{\theta}(x{1,x}2,ldots,x})=\prod{i=1}^{n}p{\theta}(x}i)$$

这意味着,由于\(x_1, x_2, \ldots, x_n\)不包含彼此的信息,我们可以把联合概率写成它们边长的乘积。

另一个假设是,这些随机变量同分布,这意味着它们来自相同的生成分布,这允许我们使用相同的分布参数化对其建模。

考虑到这两个假设,也就是IID公司(独立同分布),我们可以制定我们的最大似然估计的问题,因为:

$$\hat{\theta}=\mathrm{arg}\max{theta\prod{i=1}^{n}p{\theta}(x}i)$$

请注意,MLE并不要求您做出这些假设,但是,如果您不这样做,就会出现许多问题,例如每个样本的不同分布或必须处理联合概率。

鉴于在许多情况下,这些密度,我们乘可以非常小,乘以在产品中另外一个,我们有上面我们可以用非常小的值结束。亚洲金博宝这里是对数函数使得其可能性的方式。日志功能是严格单调递增函数,即保留的位置极值并且有一个非常好的特亚洲金博宝性:

$$ \ LOG AB = \记录一个+ \日志b $$

其中一个乘积的对数是对数之和,这对我们来说非常方便,所以我们将对数应用到可能性上,使所谓的亚洲金博宝对数似:

$$
\ {开始}对齐
\帽子{\ THETA}&= \ mathrm {ARG} \ MAX_ \ THETA \ prod_ {I = 1} ^ {N} p _ {\ THETA}(X_I)\\
&= \ mathrm {ARG} \ MAX_ \ THETA \ sum_ {I = 1} ^ {N} \的log P _ {\ THETA}(X_I)\\
结束\{对齐}
$$

正如你所看到的,我们从一个积变成一个求和,这样就方便多了。应用对数的另一个原因是,我们经常取导数,然后求出它的参数,因此求和比求乘法容易得多。

我们还可以方便地平均对数似然(假设我们只是把一个乘法和一个常数相加):

$$
\ {开始}对齐
{\ \帽子θ}& = \ mathrm {arg} \ max_ \θ\ sum_ {i = 1} ^ {n} \ log p_{\θ}(x_i) \ \
&=\mathrm{arg}\max\theta\frac{1}{n}\sum{i=1}^{n}\log p{\theta}(x}i)\\
结束\{对齐}
$$

这也是方便,因为它会拿出依赖于观测的数量。我们也知道,通过大数定律,以下为\(n\to\infty\):

$$
\frac{1}{n}\sum{i=1}^{n}\log\,p{\theta}(x_i)\approx\mathbb{E}ux\sim p{\theta^*}(x)}\left[\log\,p{\theta}(x)]
$$

如你所见,我们用经验预期由我们的数据集定义。这是一个重要的观点,通常是含蓄的假设。

弱大数定律可以用切比雪夫定界来定界,如果你对浓度不等式感兴趣,我已经188asia.net在那里我讨论了切比雪夫约束。

为了完成我们的公式,考虑到我们通常最小化目标,我们可以将最大似然估计与对数似然负的最小化公式相同:

$$
\hat{\theta}=\mathrm{arg}\min\theta-\mathbb{E}{x\sim p{\theta^*}(x)}\left[\log\,p{\theta}(x)\ right]
$$

这和否定把最大化问题转化为最小化问题是完全一样的。

最大似然估计的从信息论的相对熵的关系

众所周知,最大化可能性与最小化Kullback-Leibler散度,也称为KL散度。这很有趣,因为它将亚洲金博宝信息论用极大似然原理。

KL发散定义为:

$$
\开始{方程式}
D_ {KL}(P || Q)= \ INT P(X)\日志\压裂{P(X)} {Q(X)} \ DX
\结束{方程式}
$$

有许多直觉理解KL散度,我个人很喜欢的角度似然比然而,也有很多关于它的资料,你可以很容易找到,它是此介绍的范围了。

KL散度基本上是对数似然比在\(p(x)\)分布下的期望。下面我们要做的就是用期望的一些恒等式和属性来重新表述它

$$
\ {开始}对齐
D{KL}[p{\theta ^*}(x)\,\Vert\,p\theta(x)&=\mathbb{E}{x\sim p{\theta ^*}(x)}\left[\log\frac{p{\theta ^*}(x)}{p\theta(x)}\right]\\
{情商:logquotient} \标签
&= \ mathbb {E} _ {X \ SIM P 450 {\ THETA ^ *}(X)} \左[\ LOG \,P _ {\ THETA ^ *}(X) - \日志\,P_ \ THETA(X) \对] \\
{情商:线性化}\标签
& = \ mathbb {E} _ {x \ sim p_{\θ^ *}(x)} \ underbrace左{\ [\ log \, p_{\θ^ *}(x) \]} _{{熵}\文本p_{\θ^ *}(x)} - \ underbrace {\ mathbb {E} _ {x \ sim p_{\θ^ *}(x)}左\ [\ log \, p_{\θ}(x) \]} _{\文本{负对数似}}
结束\{对齐}
$$

在上面的公式中,我们首先使用一个事实,即商的对数等于分子和分母的对数之差(等式{eq:logquotient})。在那之后,我们使用期望的线性化(方程\([ref{eq:linearization}]),它告诉我们,\(\mathbb{E}\left[X+Y\right]=\mathbb{E}\left[X\right]+\mathbb{E}\left[Y\right]])。最后,我们剩下两个条件,左边第一个是和一个你可以识别为右对数似然负我们在前面看到的。

如果我们想最小化θ的KL发散,我们可以忽略第一项,因为它在任何方面都不依赖θ,最后我们得到了与我们之前看到的完全相同的最大似然公式:

$$
\开始{eqnarray}
\需要{取消}
\ THETA ^ * =&\ mathrm {ARG} \ min_ \ THETA \取消{\ mathbb {E} _ {X \ SIM P 450 {\ THETA ^ *}(X)} \左[\ LOG \,P _ {\THETA ^ *}(X)\右]} - \ mathbb {E} _ {X \ SIM p 450 {\ THETA ^ *}(X)} \左[\ LOG \,p _ {\ THETA}(X)\右] \\
&=&\mathrm{arg}\min\theta-\mathbb{E}{x\sim p{\theta^*}(x)}\left[\log',p{\theta}(x)right]
\结束{eqnarray}
$$

条件对数似

在机亚洲金博宝器学习很常见的情况是监督学习,在那里我们有数据点\(x_n \)和它们的标签\(y_n \)建立了数据集\(d = \ {(X_1,Y_1),(X_2,Y_2),\ldots, (x_n, y_n) \} \), where we’re interested in estimating the conditional probability of \(\textbf{y}\) given \(\textbf{x}\), or more precisely \( P_{\theta}(Y | X) \).

最大似然原则延伸到有条件的情况下,我们就必须把它写成:

$$
\帽子{\θ}= \ mathrm {arg} \ min_ \θ- \ mathbb {E} _ {x \ sim p_{\θ^ *}(y | x)} \离开[\ log \, p_{\θ}(y | x) \]
$$

然后,它可以很容易地推广制定了线性回归:

$$
P 450 {\ THETA}(Y | X)\ SIM \ mathcal {N}(X ^ T \ THETA,\西格马^ 2)\\
p{\theta}(y | x)=-n\log\sigma–\frac{n}{2}\log{2\p i}–\sum{i=1}^{n}{\frac{x{i^T\theta–y{2\sigma^2}
$$

在这种情况下,你可以看到,我们最终得到的平方误差的总和,将具有相同位置的最佳平均平方误差(MSE)。所以你可以看到最小化MSE等价于最大化高斯模型的可能性。

关于极大似然的注记

最大似然估计具有非常有趣的性质,但它只是给我们亚洲金博宝点估计,这意味着我们无法对这些估计值的分布进行推理。相比之下,贝叶斯推理可以给出参数的完全分布,因此将允许我们关于后验分布的原因.

I’ll write more about Bayesian inference and sampling methods such as the ones from the Markov Chain Monte Carlo (MCMC) family, but I’ll leave this for another article, right now I’ll continue showing the relationship of the maximum likelihood estimator with the maximum a posteriori (MAP) estimator.

最大值后验

尽管最大后验概率(也称为MAP)也为我们提供了一个点估计,但它是一个贝叶斯概念,包含了参数上的先验。我们还将看到,映射与正则MLE估计有很强的联系。

我们从Bayes规则中知道,我们可以从似然和先验的乘积中得到后验,并通过证据进行规范化:

$$
\ {开始}对齐
P(\ THETA \ VERT X)= \压裂{P _ {\ THETA}(x)的P(\ THETA)} {P(X)} \\
\标签{EQ:PROPORT}
&\投影{\theta}(x)p(\theta)
结束\{对齐}
$$

在方程(eq:proportt)中,由于我们担心优化问题,我们取消了标准化证据(p(x))并保持了比例后验,这是非常方便的,因为(p(x))的边缘化涉及积分,在许多情况下是难以处理的。亚洲金博宝

$$
\ {开始}对齐
地图\ theta_ {} & = \ mathop {\ rm arg \马克斯}\ limits_{\θ}p_{\θ}p (x)θ(\)\ \
& = \ mathop {\ rm arg \马克斯}\ limits_{\θ}\ prod_ {i = 1} ^ {n} p_{\θ}(x_i) p(θ)\ \ \
&=\mathop{\rm arg\,max}\limits{\theta}\sum{i=1}^{n}\underbrace{\log p{\theta}(x{i)}\text{log likelihood}\underbrace{p(\theta)}
结束\{对齐}
$$

在上面的公式中,我们只是遵循前面描述的最大似然估计的相同步骤,我们假设独立性和相同的分布设置,然后对数应用程序从乘积切换到求和。正如您在最终公式中看到的,这相当于最大似然估计乘以前一项。

我们还可以通过使用统一的先验(p(\theta)sim\textbf{U}(\cdot,\cdot)来轻松地恢复精确的最大似然估计。这意味着每一个可能的“(\theta”)值的权重都是相等的,这意味着它只是一个常数乘法:亚洲金博宝

$$
\ {开始}对齐
\theta{MAP}&=\mathop{\rm arg\,max}\limits{\theta}\sum\log p{\theta}(x_i)p(\theta)\\
&=\mathop{\rm arg\,max}\limits{\theta}\sum\log p{\theta}(x\u i)\,\text{constant}\\
&= \下括号{\mathop{\rm arg\,max}\limits_{\theta} \sum_i \log p_{\theta}(x_i)}_{\text{等价于极大似然估计(MLE)}} \\
结束\{对齐}
$$

你瞧,具有均匀的MAP之前相当于MLE。它也很容易表明,高斯先验可以恢复L2正规化MLE。这是很有趣的,因为它可以提供正规化方面的见解和新的视角,我们平时使用。

我希望你喜欢这篇文章!下一个会是关于贝叶斯推理与采样后,我们将展示我们如何推理后验分布,而不是只对所看到的MAP和MLE点估计。

——克里斯蒂安·S·佩隆

引用本文为:Christian S.Perone,“极大似然估计(MLE)和极大后验概率(MAP)的合理介绍”,in亚洲金博宝隐姓埋名地,2019年2月1日,//www.cpetem.com/2019/01/mle/.

188bet手机版客户端

过去的一周我发布的第一个公开版本欧几里德布。EuclidesDB是紧密结合PyTorch并提供包括与该模型的特征空间查询数据后端的多模型的机器学习特征数据库。

有关详细信息,请参见金宝博游戏网址GitHub的库或者文档.

EuclidesDB的某些功能列举如下:

  • 用c++编写的性能;
  • 用途protobuf的数据序列化;
  • 用途GRPC通信;
  • 性LevelDB集成数据库系列化;
  • 许多索引方法来实现(骚扰,Faiss等);
  • 通过libtorch紧密PyTorch整合;
  • 易于集成新的定制微调模型;
  • 易于客户端语言绑定生成;
  • 免费和开放源代码与自由许可;

下面是总体架构图:

188bet asia app

介绍

上次巴西总统选举的显著特点是大量资金被注入数字代理机构和各种各样的目标企业,这些企业使用Twitter, WhatsApp,甚至SMS信息,利用目标策略传播他们的内容。金宝搏188官方甚至在大选之前,“剑桥分析”就被记录了下来提到他们的参与在巴西。

图像来源:MaxPixel。

是什么让巴西这些微目标对准公司那么脆弱,在我看来,是关于数字化平台的广泛巧思。这个别出心裁的一个例子是的是据称为监测政治家和有关他们提供信息应用广泛的传播,以帮助您确定您的投票,书签政治家等,但在现实中,这是超过明显,这些应用是刚刚捕获数据(如地理位置,个人意见,人口等),关于其用户的意图后把它卖掉,或者使用自己的目标。我甚至看到记者和一些非常知名的人支持这些应用。亚洲金博宝简单地说,大多数时候,当你不支付产品(或应用),你的产品。

一个非常亚洲金博宝有趣的工作是实验由吴优邮在2014年完成的,在那里他发现,一个简单的正则线性模型是好还是在精度等于使用Facebook的喜欢,本研究采用超过80K参与者数据,以确定一些性格特征:

188bet
从图:“基于计算机的个性判断更
精确比人类”制造。通过鄔优优等。

这个图上面显示的是从你的Facebook喜欢70,线性模型比你的朋友的评价更准确,并与150个多家喜欢就可以达到你的家人的评价的准确性。现在,你可以理解为什么社会数据是非常重要的,这些企业识别个性特征和内容,你是最容易受到影响。

时间地图

在今年的候选人之一并没有太大的争论参加第二轮前,大都采用数字化平台,达到选民,因此Twitter的成为了所有考生在某些方面探索出了一条非常重要的媒介。金宝搏188官方亚洲金博宝这篇文章的想法是使用一种称为离散事件可视化技术时间地图马克斯·c·沃森在他的作品中扩展到了推特可视金宝搏188官方化。”时间地图:一种工具用于可视化许多离散事件跨多个时间尺度“(纸张可以在这里)。不幸的是,并没有很多人使用这些可视化方法,因为它们确实有用亚洲金博宝很有意思用于可视化中的活动模式多时间尺度在一个单一的情节上。

后面的时间地图的主要思想是,你可以之后整个离散时间事件事件之前想象的时间。这可以通过查看最大C.沃森做视觉的解释很容易理解。

188bet.com服务中心
时间地图:从图片的工具用于可视化许多离散事件跨多个时间表。由Max C.沃森。

如右图所示,情节非常简单,你可能需要一些时间来理解是的-axes,但一旦你掌握的概念,你会看到,他们是很容易理解,它可以有多少模式上一个图显示。

时间地图是从混沌领域的适应,他们最初被用于研究的时间水滴.

一种容易理解的方法是看下面这两个系列和它们各自的时间图:

188asia.bet
时间地图:从图片的工具用于可视化许多离散事件跨多个时间表。由Max C.沃森。

但在绘制时间图之前,让我们先来看看上周进入第二轮大选的两位候选人的基本形象。

基本可视化

我只关注进入第二轮选举的两位候选人,他们的名字是贾尔·博尔森罗(总统选举)和费尔南多·哈达德(未经选举)。这些首批地块将显示2018年期间每天的推文数量,并带有一些红色标记,表明第一轮和第二轮选举:

188asia.com在这些情节中,我们可以看到,杰尔·博尔索纳罗在大选前更为活跃,对两位候选人来说,每天的推特总数总是在每轮选举前达到峰值,杰尔·博尔索纳罗的峰值出现的时间比费尔南多·哈达德稍早。我还用一条黑色竖线标出了杰尔·博尔索纳罗在巴西街头被刺伤的那一天,你可以看到活动明显减少,之后恢复缓慢。亚洲金博宝

让我们现在看看天轮廓的时间每个候选检查一天,候选人更安静,更活跃的时间:

188bet.vom

这些简介告诉我们非常有趣的信息,候选人最活跃的亚洲金博宝时间是下午3点到下午4点,但对杰尔·博尔索纳罗来说,一天中的下午3点似乎是他最活跃的时间,差距很大。真正有意思的是,早上6点到8点之间没有费尔南多·哈达德的微博。

2017年和2018年之间的每个候选让我们来看看现在的分布的差异:

188bet 458

188betios下载从这些情节中我们可以看到,贾伊尔·博尔索纳罗在2017年和2018年一样活跃,而费尔南多·哈达德在2017年的活跃程度并不高,在2018年(选举年)的一些推特上出现了巨大的波澜。有趣的是,从Jair Bolsonaro到2018年下午1点更多发推的模式转变为下午3点,而对Haddad来说,也从下午1点变为下午2点。可以假设,在他们减少参与并习惯于午饭后发推特之前,但在选举年这一惯例改变了(假设这不是他们的工作人员是谁在管理帐户为他们),因此,不仅有更多的tweets,而且在一天中的一个小时内有一个分布的变化。

时间图可视化

这些是贾尔·博尔森罗时间地图。第一种是由一天中的小时和第二时间映射着色的时间映射是热地图上看到点的密度在时间映射。

188bet开户注册网站

而这些都是费尔南多·哈达德时间地图:

188bet手机版下载

现在,这些是非常有趣的时间地图亚洲金博宝。在Jair Bolsonaro的时间地图上,你可以清楚地看到有两条条纹:左边是垂直的,上面是水平的,分别显示当天的第一条和最后一条推文。这是一个缓慢但稳定的推特活动,集中在1天波段的热图上。在费尔南多哈达德,你可以看到条纹仍然可见,但更不集中。费尔南多·哈达德的热图中还有两个主要的blob,左下角的一个显示了可能来自某个特定事件的快速tweets,右上角的blob则显示了通常的活动。

如果你有兴趣了解更多关于这些情节的情况,请看看麦克斯·沃森博客文章他解释了一些有趣的案例,比如白宫账户的推文。

点样机器人与时间地图

如果您想了解Twitter的机器人是如何出现在地图的时间,金宝搏188官方这里是我绘制从CozinhaBot一种能够保持张贴在Twitter上一些随机的食谱鸣叫的例子:

188bet手机滚球

188bet中心

正如可以看到,该图案是非常规则的,在热图,我们可以看到的巨大密亚洲金博宝度点的2小时蜱之前,这意味着此漫游具有非常公知的,规则的图案,而不是在人类生产的图案我们以前看到。这些地块没有点少量,因为它有更少的微博,而是因为他们遵循亚洲金博宝非常规则的间隔,该地块几乎涵盖我们从总统候选人的前面的例子中看到了微博的量相同。这是非常有趣的,亚洲金博宝因为不仅可以用来发现Twitter的僵尸还要找出被贴出来的BOT模式的其中鸣叫。金宝搏188官方

我希望你喜欢!

——克里斯蒂安·S·佩隆

引用本文为:基督教S. Perone,“时间地图:从可视化的巴西总统选举候选人离散事件,”在亚洲金博宝隐姓埋名地2018年10月31日,188bet asia app.